Indonézia deepfake képek miatt blokkolja Musk Grok mesterséges intelligenciával működő chatbotjának hozzáférését ↗
Indonézia ideiglenesen blokkolta a Grokot, miután azt nem beleegyezésen alapuló szexuális deepfake-ek – többek között nőket és gyermekeket célzó képek – létrehozására használták. A kormány az esetet emberi jogi és közbiztonsági kérdésként, nem pedig apró technikai kellemetlenségként fogalmazta meg.
A lényeg nyers: ha egy eszköz parancsra képes „letépni” valódi embereket, akkor a bizonyítási teher megfordul. A platformoknak be kell bizonyítaniuk, hogy meg tudják akadályozni, nem csak ígéreniük kell, hogy gondolkodnak rajta.
Elon Musk azt mondja, hogy az Egyesült Királyság el akarja nyomni a szólásszabadságot, mivel X betiltással néz szembe ↗
Az Egyesült Királyság miniszterei nyíltan bírságokat – sőt, még az X blokkolását is – vetettek fel, miután Grokot szexuálisan explicit képek készítésére használták beleegyezés nélkül. Musk a megszokott szólásszabadság-koncepcióval vágott vissza... de az Egyesült Királyság jogi helyzete a „vitaklubtól” a „megfelelési határidő” felé csúszik
Az Ofcomot arra sürgetik, hogy gyorsan cselekedjen, és a törvényhozók is ugyanarra a komor mintára mutatnak rá: miután a képek elterjednek, a kár nem vár türelmesen a szabályozás frissítésére.
🧑💻 Az OpenAI állítólag arra kéri a vállalkozókat, hogy töltsenek fel valódi munkákat korábbi munkáikból ↗
Az OpenAI állítólag egy adatgyűjtő partnerrel együtt arra kéri a vállalkozókat, hogy töltsenek fel valós munkaanyagokat a korábbi (és jelenlegi) munkáikból – például dokumentumokat, táblázatokat, csomagokat, adattárakat. A kimondott cél az irodai típusú feladatokban használt mesterséges intelligencia ágensek értékelése és fejlesztése.
A kellemetlen rész nyilvánvaló, és kissé szürreális: a vállalkozóknak azt mondják, hogy maguk töröljék át az érzékeny információkat. Ez nagy bizalom egy gyorsan változó folyamatban – mintha megkérnénk valakit, hogy szeretettel hatástalanítson egy bombát sütőkesztyűvel.
🗂️ Az OpenAI arra kéri a vállalkozókat, hogy töltsék fel korábbi munkáikból származó munkáikat, hogy felmérhessék a mesterséges intelligencia által támogatott ügynökök teljesítményét ↗
Egy külön jelentés ugyanezt a helyzetet vizsgálja, és azt, hogy miért riasztja az adatvédelmi és szellemi tulajdonjoggal foglalkozó jogászokat. Még ha mindenki jóhiszeműen is jár el, a „bizalmas anyagok eltávolítása” egy kényes utasítás, ha valódi vállalati dokumentumokkal van dolgunk.
Ez egyben utal a nagyobb stratégiára is: a mesterséges intelligencia által vezérelt ügynökök már nem csupán beszédes másodpilóták – arra képezik őket, hogy utánozzák a tényleges munka kusza, többfájlos valóságát. Gyakorlatias, igen. És egy kicsit… hűha.
🏦 Az Allianz és az Anthropic globális partnerséget kötött a felelős mesterséges intelligencia előmozdítása érdekében a biztosítási szektorban ↗
Az Allianz és az Anthropic bejelentett egy globális partnerséget, amely három területre összpontosít: az alkalmazottak termelékenységére, az ügynöki mesterséges intelligencia segítségével történő működési automatizálásra és a tervezett megfelelőségre. A biztosítás a papírmunka fogaskerekű folyamata, tehát az „ügynöki” itt alapvetően az összetett munkafolyamatok automatizálását jelenti az auditnaplók elvesztése nélkül.
A lényeg: csináld a menő automatizálást, de tartsd meg a számlákat. Szabályozott iparágakban ez az egyetlen módja annak, hogy ez ne váljon felelősségkieséssé.
🕵️♂️ Nyilatkozat a Grok AI-ra adott válaszként az X-en ↗
Az Egyesült Királyság adatvédelmi szabályozója azt állítja, hogy felvette a kapcsolatot az X-szel és az xAI-val, hogy tisztázzák, hogyan kezelik a személyes adatokat és védik az emberek jogait, tekintettel a Grok által generált tartalommal kapcsolatos aggodalmakra. Nem csak a „tartalom moderálásáról” van szó, hanem arról is, hogy az emberek adatait jogszerűen dolgozzák-e fel, és hogy a jogok védve vannak-e.
Ez az a fajta szabályozási lépés, ami udvariasnak hangzik, majd csendben rendkívül komollyá válik, ha a válaszok homályosak... vagy kitérőek, vagy mindkettő.
GYIK
Miért blokkolta Indonézia a Grok mesterséges intelligenciájához való hozzáférést?
Indonézia ideiglenesen blokkolta a Grokot, miután állítólag nem beleegyezésen alapuló szexuális deepfake-ek, többek között nőket és gyermekeket célzó képek készítésére használták. A tisztviselők a lépést emberi jogi és közbiztonsági kérdésként, nem pedig jelentéktelen technológiai vitaként fogalmazták meg. Az alapvető üzenet az, hogy a „majd később megoldjuk” elégtelen, ha az eszközök azonnali, visszafordíthatatlan kárt okozhatnak.
Mit fontolgat az Egyesült Királyság, miután a Grok által generált deepfake-ek megjelentek az X-en?
Az Egyesült Királyság miniszterei nyilvánosan megvitatták a bírságokat, sőt az X blokkolásának lehetőségét is, miután a Grokot szexuálisan explicit képek beleegyezés nélküli létrehozására használták. A politikai és szabályozási hangvétel a nyílt vita helyett a kikényszeríthető megfelelés felé tolódik el. A törvényhozók állandóan visszatérnek az időzítéshez: miután a képek elterjednek, az áldozatok már jóval azelőtt kárt szenvednek, hogy a platformok frissített szabályzatokat tennének közzé.
Mit jelent az, amikor a szabályozók „áthárítják a bizonyítási terhet” a mesterséges intelligencia képalkotó eszközei esetében?
A „bizonyítási teher megfordulásának” gondolata szerint a platformoknak ahelyett, hogy egyszerűen csak biztosítékokat ígérnének, be kell bizonyítaniuk, hogy képesek megelőzni bizonyos károkat – például a nem konszenzuson alapuló „lezser” képek generálását. A gyakorlatban ez a vállalatokat a kimutatható ellenőrzések, a mérhető végrehajtás és az egyértelmű hibakezelés felé tereli. Azt is jelzi, hogy a „szándék” kevésbé számít, mint a kézzelfogható eredmények és az megismételhető megelőzés.
Hogyan csökkenthetik a platformok a mesterséges intelligencia által generált, nem konszenzuson alapuló deepfake-ek kockázatát?
Egy gyakori megközelítés a rétegzett megelőzés: korlátozza a valódi emberekhez kapcsolódó kéréseket és kimeneteket, blokkolja a „vetkőzéses” stílusú kéréseket, valamint észleli és megállítja a szexualizált képek beleegyezés nélküli létrehozására tett kísérleteket. Számos folyamatlánc sebességkorlátokat, szigorúbb személyazonosság- és visszaélés-figyelést, valamint gyors eltávolítási munkafolyamatokat ad hozzá, amint a tartalom elterjedt. A cél nem csupán a szabályzat nyelvezete, hanem olyan eszközök létrehozása, amelyek ellenállnak az ellenséges használatnak.
Miért adnak vészjelzést az OpenAI vállalkozók által feltöltött valódi munkadokumentumai?
A jelentések szerint az OpenAI (egy betanítási adatpartnerrel) arra kéri a vállalkozókat, hogy töltsenek fel valós munkaanyagokat – dokumentumokat, táblázatokat, csomagokat és adattárakat – az irodai feladatokhoz használt MI-ügynökök értékelése és fejlesztése érdekében. Az aggodalom az, hogy a vállalkozóknak azt mondják, hogy maguknak kell törölniük az érzékeny adatokat, ami hibalehetőségeket rejthet. Az adatvédelmi és szellemi tulajdonjoggal foglalkozó jogászok attól tartanak, hogy ez a „bizalmas anyagok eltávolítására” vonatkozó utasítás túl kétértelmű a valódi vállalati anyagokhoz.
Mi a jelentősége annak, hogy az Allianz partnerséget kötött az Anthropic-kal az „ügynöki mesterséges intelligencia” terén a biztosítási szektorban?
Az Allianz és az Anthropic egy globális partnerséget ismertetett, amely az alkalmazottak termelékenységére, az ügynöki mesterséges intelligencia használatával történő működési automatizálásra és a tervezett megfelelőségre összpontosít. A biztosítási munkafolyamatok összetettek és szigorúan szabályozottak, így az „ügynöki” gyakran több lépésből álló folyamatok automatizálását jelenti az elszámoltathatóság feláldozása nélkül. Az auditnaplókra és a „bizonylatok megőrzésére” helyezett hangsúly a gyakorlati valóságot tükrözi: az automatizálás csak akkor skálázható a szabályozott iparágakban, ha ellenőrizhető és védhető marad.