🕵️ Nagy-Britannia együttműködik a Microsofttal egy deepfake-észlelő rendszer kiépítésében ↗
Nagy-Britannia azt állítja, hogy összefog a Microsofttal, akadémikusokkal és más szakértőkkel egy olyan rendszer kidolgozásában, amely képes kiszűrni az online deepfake-eket, valamint egy megfelelő módszert annak tesztelésére hogy az észlelő eszközök helytállnak-e a valóságban.
A hangsúly a legsúlyosabban érintett károkon van: a személyes adatokkal való visszaélésen, a csaláson és a beleegyezés nélküli szexuális tartalomon. Nem túl feltűnő, de a kár itt koncentrálódik.
🧠 Az Anthropic kiadta a mesterséges intelligencia frissítését, mivel a piac bünteti a szoftverrészvényeket ↗
Az Anthropic kiadott egy továbbfejlesztett Claude modellt (Opus 4.6), amely jobb teljesítményt ígért a kódolás és a pénzügyek terén, valamint azt, hogy akár 1 millió tokent is képes egyszerre feldolgozni. Ez sok kontextust jelent – mintha egy egész könyvtári kártyát adnának a modellnek.
Emellett a Claude Code-on keresztül az „ügynökök” felé is hajlanak, ahol a feladatok autonóm segítők között oszthatók meg. Praktikus, több, mint amire számítanánk – és egyben az a fajta váltás is, ami a régi vágású szoftverbefektetőket kissé idegessé teszi.
🧑💼 Az OpenAI bemutatja a mesterséges intelligencia ügynöki szolgáltatását a vállalkozások vonzására irányuló törekvések részeként ↗
Az OpenAI bejelentette a „Frontier” nevű vállalati szintű szolgáltatást, amely mesterséges intelligencia ágensek – olyan botok, amelyek olyan speciális feladatokat látnak el, mint a szoftverek hibakeresése, a munkafolyamatok kezelése és hasonlók – építésére és kezelésére szolgál.
A csavar az, hogy a meglévő vállalati infrastruktúrába kell csatlakozni, sőt, harmadik féltől származó ügynököket is támogatni kell, ami olyan, mintha az OpenAI a vezérlőközponttá akarna válni – nem csak a modellszolgáltatóvá. Ambiciózus... vagy kissé birtokló, attól függően, hogyan nézzük.
🪖 Az USA és Kína kilép a mesterséges intelligencia katonai felhasználásáról szóló közös nyilatkozatból ↗
Egy csomó ország aláírt egy nem kötelező érvényű nyilatkozatot, amely lefekteti a mesterséges intelligencia hadviselésben való alkalmazásának alapelveit – olyan dolgokat, mint az emberi felelősség, az egyértelmű parancsnoki struktúrák, valamint a komoly tesztelés és kockázatértékelés.
De az USA és Kína nem írta alá. Ami egyetlen kínos ütemben el is magyarázza az egészet – a szabálykönyv létezik, és a legnagyobb szereplők… nem a tollat fogják.
🎭 A New York-i törvény előírja a mesterséges intelligencia által generált előadók reklámokban való közzétételét, és megerősíti a halál utáni nyilvánosságra hozatalhoz való jogokat ↗
New York állam törvényeket írt alá, amelyek előírják, hogy a mesterséges intelligencia által generált „szintetikus előadókat” használó hirdetések esetében ezt egyértelműen fel kell tüntetni az állam közönsége számára – még akkor is, ha a hirdető máshol található. Lényegében arról van szó, hogy ne csempésszünk be egy hamis embert az emberek elé, és ne nevezzük azt marketingnek.
Az állam ettől függetlenül megerősítette az elhunyt emberek arcképeinek, beleértve a digitális másolatokat is, kereskedelmi célú felhasználására vonatkozó szabályokat. Őszintén szólva ez kissé komor, de ugyanakkor nagyon is „üdvözlünk abban a korszakban, amikor az identitáshoz biztonsági övre van szükség”
GYIK
Mit épít Nagy-Britannia a Microsofttal az online deepfake-ek felderítésére?
Nagy-Britannia azt állítja, hogy együttműködik a Microsofttal, akadémikusokkal és más szakértőkkel egy olyan rendszer kiépítésében, amely képes kiszűrni az online deepfake-eket. A terv magában foglalja egy megbízható módszer kidolgozását is annak tesztelésére, hogy az észlelő eszközök a laboratóriumon kívül is megállják-e a helyüket. A hangsúly továbbra is a legsúlyosabban káros területeken van: a személyazonosság-ellenőrzésen, a csaláson és a beleegyezés nélküli szexuális tartalmakon.
Miben fog különbözni a deepfake detektorok „valós körülmények között” történő tesztelése a demóktól?
Magán a detektoron kívül Nagy-Britannia hangsúlyt fektet a deepfake-észlelő eszközök valós körülmények közötti tesztelésére is. Sok tesztfolyamatban a modellek erősnek tűnnek a kurált adatkészleteken, de gyengülnek, ha a tartalomformátumok, a tömörítés vagy az ellenséges taktikák megváltoznak. Egy strukturált értékelési megközelítés segít az eszközök következetes összehasonlításában, és feltárja, hol vall kudarcot az észlelés az élő online környezetekben.
Mit változtatott az Anthropic a Claude Opus 4.6-ban, és miért számít a tokenkorlát?
Az Anthropic szerint a Claude Opus 4.6 javítja a teljesítményt olyan területeken, mint a kódolás és a pénzügy, és akár 1 millió tokennyi kontextust is képes kezelni. Ez a nagyobb kontextuális ablak megkönnyítheti a hosszú dokumentumokon vagy összetett kódbázisokon való munkát az információk folyamatos újratöltése nélkül. Kiemelték az „ügynököket” is a Claude Code-on keresztül, ahol a feladatok autonóm segítők között oszthatók meg.
Mi az OpenAI „Frontier”, és hogyan illeszkedik a vállalati munkafolyamatokba?
Az OpenAI bejelentette a „Frontier” nevű vállalati szintű szolgáltatást, amely olyan MI-ügynökök létrehozására és kezelésére szolgál, amelyek meghatározott feladatokat látnak el, például szoftverek hibakeresését vagy munkafolyamatok kezelését. Úgy tervezték, hogy a szolgáltatás a meglévő vállalati infrastruktúrához csatlakozzon, ahelyett, hogy önálló modellvégpontként szolgálna. Az OpenAI azt is közölte, hogy képes támogatni harmadik féltől származó ügynököket, ami egy vezérlőréteget jelent a különböző ügynökrendszerek koordinálásához.
Mit mond a katonai MI-nyilatkozat, és mit jelent ez a MI-irányítás szempontjából?
A nyilatkozatot nem kötelező érvényűnek írják le, és alapelveket fektet le a mesterséges intelligencia hadviselésben való alkalmazására, beleértve az emberi felelősséget, az egyértelmű parancsnoki struktúrákat, valamint a komoly tesztelést és kockázatértékelést. A Reuters jelentése szerint sok ország aláírta, de az Egyesült Államok és Kína nem. A mesterséges intelligencia irányítása szempontjából ez a kimaradás azért fontos, mert a legnagyobb szereplőket kihagyja a közösen kimondott normákból.
Mit írnak elő New York új szabályai a mesterséges intelligencia által generált előadókkal szemben a hirdetésekben?
New York állam törvényeket írt alá, amelyek előírják, hogy a mesterséges intelligencia által generált „szintetikus előadókat” használó reklámokban ezt a tényt egyértelműen fel kell tüntetni az állam közönsége számára, még akkor is, ha a hirdető máshol található. Emellett az állam megerősítette az elhunyt emberek képmásainak, beleértve a digitális másolatokat is, kereskedelmi célú felhasználásával kapcsolatos halál utáni nyilvánosságra hozatali jogokat. A gyakorlatban ez a mesterséges intelligencia irányítását az egyértelműbb címkézés és az identitásfelhasználás szigorúbb ellenőrzése felé tereli.