Indonéziában engedélyezték Elon Musk Grokjának folytatását a szexualizált képek miatti betiltás után ↗
Indonézia feloldotta az xAI Grok nevű csatornájának felfüggesztését a mesterséges intelligencia által generált szexuális tartalmakhoz kapcsolódó tilalom után, a tisztviselők pedig jelezték, hogy szigorúbb felügyelet mellett visszatérhet.
A lényeg a megfelelési nyomás: a platformok gyorsan visszatérhetnek, de csak akkor, ha szigorúbb védelmi intézkedéseket vállalnak. Alapvetően azt mondják, hogy „üdvözlünk vissza, de ne kényszerítsenek minket erre újra”, ami… igazságos.
💰 Az Oracle azt tervezi, hogy idén akár 50 milliárd dollárnyi adósságot és tőkét von be ↗
Az Oracle azt állítja, hogy hatalmas összeget szeretne bevonni a felhőkapacitás bővítésébe, kifejezetten a mesterséges intelligencia által vezérelt kereslethez kötve a növekedést.
Ez a mostani csendes minta: a mesterséges intelligencia iránti kereslet beruházásokká, a beruházások adóssággá válik, és mindenki úgy tesz, mintha ez teljesen normális lenne. Pedig az… és nem is az.
🍜 Jensen Huang, a „nép apja”, az Nvidia beszállítóit sürgeti a tömeg által megkörnyékezett tajvani látogatása során ↗
Jensen Huang egy nagy nyilvánosságot képviselő tajvani útját arra használta fel, hogy dicsérje a beszállítókat, és arra is ösztönözze őket, hogy növeljék a termelést, mivel a mesterséges intelligencia iránti kereslet még mindig mindent áthat.
Félig hírességek turnéja, félig ellátási lánccal kapcsolatos tárgyalások, ami egy olyan mondat, aminek nem szabadna értelmesnek lennie – de valahogy most mégis az.
🧾 Az Nvidia Huangja szerint a „100 milliárd dolláros OpenAI-befektetésről” szóló beszélgetés nem volt elköteleződés ↗
Az Nvidia vezérigazgatója megpróbálta lecsillapítani az OpenAI-hoz kapcsolódó hatalmas befektetéssel kapcsolatos várakozásokat, mondván, hogy ez nem egy elkötelezettség – inkább valami, amit akkor értékelnek, amikor valósággá válik.
Unalmas vállalati köhögésnek hangzik, de számít, mert az „érdeklődést” mindig félreértelmezik, mint „lezárt ügyet”. Meglepően könnyű megcsinálni, amikor a számok ekkorák.
🧠 Miért versenyeznek a tudósok a tudat meghatározásán? ↗
Kutatók egy csoportja azzal érvel, hogy nincsenek szilárd, széles körben elfogadott tesztjeink a tudatosság vizsgálatára, és hogy ez a különbség problémává válik, ahogy a mesterséges intelligencia rendszerek és a neurotechnológia egyre hatékonyabbá válik.
A kellemetlen az egészben, hogy mennyire gyakorlatiassá válik: közös definíciók nélkül nehezebb etikai határokat felállítani, irányelveket írni, vagy akár abban is megegyezni, hogy mi számít ártalomnak. Olyan ez, mintha megpróbálnánk közlekedési szabályokat felállítani, mielőtt eldöntenénk, mi az „út”... elég közel van, de nem megnyugtató.
GYIK
Miért oldotta fel Indonézia a Grok betiltását a szexualizált képek kérdése után?
A tisztviselők feloldották a felfüggesztést, miután a tilalmat mesterséges intelligencia által generált szexuális tartalomhoz kötötték, és jelezték, hogy a szolgáltatás szigorúbb felügyelet mellett visszatérhet. Az üzenet feltételes visszaállítást jelent. A platformok gyorsan visszatérhetnek, de csak akkor, ha szigorúbb védelmi intézkedésekre kötelezik el magukat. Ez egy megfelelési visszaállítás, nem tiszta lap.
Milyen biztosítékokat várnak el jellemzően a szabályozók, miután egy MI-platformot felfüggesztenek szexualizált tartalom miatt?
A szabályozó hatóságok jellemzően világosabb tartalomirányelveket, erősebb szűrést és gyorsabb eltávolítási munkafolyamatokat szeretnének a magas kockázatú kimenetek esetében. Egy gyakori megközelítés magában foglalja a felhasználói jelentések javítását, a proaktívabb monitorozást és a dokumentált eszkalációs útvonalakat. Elvárhatják az átláthatóságot is azzal kapcsolatban, hogy mi változott, és hogyan fogják megakadályozni a megismétlődést. Sok folyamatban a „felügyelet” folyamatos ellenőrzéseket jelent, nem egyszeri javítást.
Miért gyűjt az Oracle 50 milliárd dollárt, és mit mond ez a mesterséges intelligencia iránti keresletről?
Az Oracle azt állítja, hogy jelentős mennyiségű adósság és tőke bevonását tervezi a felhőkapacitás bővítése érdekében, kifejezetten összekapcsolva a növekedést a mesterséges intelligencia által vezérelt kereslettel. Ez beleillik egy ismerős ördögi körbe: a mesterséges intelligencia iránti kereslet jelentős beruházásokat hajt, a beruházások pedig gyakran a finanszírozást. Racionális lehet, ha a használat folyamatosan növekszik, de a tétek is emelkednek, ha a kereslet csökken.
Mit árul el nekünk az Nvidia tajvani beszállítókra irányuló nyomása a mesterséges intelligencia keresleti és kínálati korlátairól?
Jensen Huang egy nagyon nyilvános látogatást tett, hogy dicsérje a beszállítókat, miközben arra is sürgette őket, hogy növeljék a termelést, mivel a mesterséges intelligencia iránti kereslet továbbra is kapacitásokat emészt fel. A jóakarat és a nyomás keveréke az ellátási láncra utal. Azt sugallja, hogy a korlátozások továbbra is valósak, még akkor is, ha mindenki a növekedést ünnepli. A gyakorlatban a beszállítók áteresztőképessége stratégiai szűk keresztmetszettel jár.
Valóban volt 100 milliárd dolláros befektetési kötelezettségvállalása az OpenAI-nak az Nvidiától?
Nem – az Nvidia vezérigazgatója azt mondta, hogy a „100 milliárd dolláros OpenAI-befektetésről” szóló beszélgetés nem kötelezettségvállalás volt. Inkább úgy fogalmazták meg, hogy fel kell mérni, hogy mikor válik kézzelfoghatóvá. Ez a különbségtétel azért fontos, mert a közérdek félreértelmezhető, mint egy megtett dolog. Ekkora számok mellett még a véletlenszerű találgatások is torzíthatják a várakozásokat.
Miért versenyeznek a tudósok a tudatosság definiálásán, és miért fontos ez a mesterséges intelligencia és a neurotechnológia számára?
A kutatók azzal érvelnek, hogy még mindig nincsenek szilárd, széles körben elfogadott tesztjeink a tudatosság vizsgálatára, és ez a hiányosság egyre sürgetőbbé válik, ahogy a mesterséges intelligenciarendszerek és a neurotechnológia egyre képesebbé válik. Közös definíciók nélkül nehezebb etikai határokat felállítani, politikát alkotni, vagy akár abban is megegyezni, hogy mi számít kárnak. A gyakorlati kockázat az, hogy a nagy teljesítményű rendszereket stabil célkoncepció nélkül szabályozzuk.