MI Hírek 2026. március 9

MI Hírek Összefoglalója: 2026. március 9

⚖️ Az Anthropic beperelte a Pentagont, hogy blokkolja a mesterséges intelligencia használatára vonatkozó korlátozások miatti tiltólistára helyezést

Az Anthropic bíróság elé vitte a Pentagonnal folytatott vitáját, miután ellátási lánc kockázatának nyilvánították. A vállalat szerint a lépés jogellenes megtorlás volt az autonóm fegyverek és a belföldi megfigyelés körüli korlátok enyhítésének megtagadása miatt – ami ezt a vitát a mesterséges intelligencia politikájának egyik legégetőbb vitapontjává teszi jelenleg. ( Reuters )

A kormány rugalmasságot akar „bármely jogszerű felhasználáshoz”, míg az Anthropic azt állítja, hogy a magánlaboratóriumoknak továbbra is meg kellene engedni, hogy kemény biztonsági határokat húzzanak. Ez az egyik legtisztább tesztje annak, hogy egy mesterséges intelligenciával foglalkozó vállalat képes-e nemet mondani a katonai kifejezésekre anélkül, hogy megbüntetnék. ( Reuters )

🧑💻 Az OpenAI és a Google alkalmazottai támogatják az Anthropic Pentagon elleni perét

A per gyorsan támogatást nyert a rivális laboratóriumok belső részéről is. Az OpenAI és a Google közel 40 alkalmazottja támogatta az Anthropicot egy amicus curiae-ban, azzal érvelve, hogy a vállalatok elleni megtorlás a mesterséges intelligencia biztonsági határai miatt sérti a közérdeket. ( The Verge )

Szóval igen, a versenytársak hirtelen ugyanazon az oldalon találták magukat – legalábbis ezen a ponton. A jelentés a tömeges megfigyelésre és a megbízhatatlan autonóm fegyverekre összpontosít, ami miatt az egész ügy kevésbé hasonlít a szokásos Szilícium-völgyi mesterlövészkedésre, és inkább egy valódi iparági vonalra a homokban... vagy talán a sárban. ( The Verge )

🛡️ Az OpenAI felvásárolja a Promptfoo-t, hogy biztosítsa AI-ügynökeinek biztonságát

Az OpenAI bejelentette, hogy felvásárolja a Promptfoo-t, egy startupot, amely a nagy nyelvi modellek ellenséges támadásokkal szembeni védelmére összpontosít. A terv az, hogy technológiájukat beépítsék az OpenAI Frontierbe, a vállalat mesterséges intelligencia ágensek számára készült vállalati platformjába. ( TechCrunch )

Ez egy sokatmondó lépés. Mindenki azt szeretné, hogy az ügynöki mesterséges intelligencia többet, gyorsabban és mindenhol tegyen – de a biztonsági oldal lemaradt, akár kicsit, akár jelentősen. Ez a megállapodás azt sugallja, hogy az OpenAI szerint a következő nagy verseny nemcsak az okosabb ügynökökért, hanem a biztonságosabbakért is szól. ( TechCrunch )

🧪 Az Anthropic elindítja a kódellenőrző eszközt a mesterséges intelligencia által generált kódok áradatának ellenőrzésére

Az Anthropic bevezette a Code Review funkciót a Claude Code-on belül, amely azoknak a csapatoknak szól, akik mesterséges intelligencia által létrehozott kódolóeszközök által létrehozott pull requestekben halmozódnak el. Több ügynököt használ párhuzamosan a kód beolvasásához, a logikai problémák jelzéséhez, a súlyosság rangsorolásához és a megjegyzések közvetlenül a GitHub-on történő hozzáfűzéséhez. ( TechCrunch )

A lényeg elég egyszerű – a mesterséges intelligencia gyorsabban generálja a kódot, mint ahogy az emberek értelmesen át tudják tekinteni, így most a mesterséges intelligenciának kell áttekintenie a mesterséges intelligenciát. Egy kissé „kígyóevés a farkában” megoldás, mégis praktikus. Az Anthropic szerint ez a módszer azoknak a vállalati felhasználóknak szól, akik már most is hatalmas kódkimenetet látnak a Claude Code-tól. ( TechCrunch )

💰 Az Nvidia által támogatott Nscale értéke 14,6 milliárd dollár volt egy friss finanszírozási körben

Az Egyesült Királyságban működő mesterséges intelligencia infrastruktúrával foglalkozó Nscale vállalat 2 milliárd dollárt gyűjtött össze egy C sorozatú finanszírozási körben, amelynek eredményeként 14,6 milliárd dolláros értékelést kapott. A támogatók között volt az Aker, a 8090 Industries, az Nvidia, a Citadel, a Dell és a Jane Street – ami meglehetősen súlyos bizalmi szavazatnak felel meg. ( Reuters )

Ez azért fontos, mert nem egy újabb modellbemutatóról vagy chatbot-átalakításról van szó. Ez a fellendülés „csipkézős” oldala – számítástechnika, infrastruktúra, kapacitás, az összes nehézgép a színfalak mögött. Talán nem csillogó, de most a pénz nagy része erre ömlik. ( Reuters )

🧠 Yann LeCun AMI Labs cége 1,03 milliárd dollárt gyűjtött világmodellek építésére

Yann LeCun új vállalkozása, az AMI Labs 1,03 milliárd dollárt gyűjtött össze 3,5 milliárd dolláros tőkebevonás előtti értékelés mellett. A vállalat „világmodelleket” üldöz – olyan mesterséges intelligenciarendszereket, amelyeknek a valóságból kell tanulniuk, nem pedig elsősorban a nyelvből. ( TechCrunch )

Ez egy közvetlen filozófiai kitérő a jelenlegi, jogi diplomácia által erősen támogatott konszenzusra, és egyben meglehetősen nyers is. LeCun évek óta azt állítja, hogy a mai nyelvi modellek nem fognak eljuttatni minket az emberi szintű intelligenciáig, így ez az érvelés egy nagyon drága kísérletté válik. ( TechCrunch )

🇨🇳 Kínai technológiai központok a biztonsági figyelmeztetések ellenére is népszerűsítik az OpenClaw mesterséges intelligencia ügynököt

Több kínai helyi önkormányzat is támogatja az OpenClaw-ot, egy mesterséges intelligenciával működő ügynököt, amely gyorsan terjed a személyes adatokhoz való hozzáférésével kapcsolatos biztonsági aggályok ellenére. A hivatalos hangulat tehát a következő: igen, vannak kockázatok – és igen, akkor is terjeszkedjünk. ( Reuters )

Ez a megosztottság a történet lényege. A helyi központok a gazdasági előnyöket és az ökoszisztéma lendületét akarják kihasználni, míg a szabályozók az adatok kiszivárgására figyelmeztetnek. Ez mára egy ismerős mesterséges intelligencia minta – először sprintelni, aztán rendbe tenni a korlátokat, vagy legalábbis úgy tűnik. ( Reuters )

GYIK

Miért perli az Anthropic a Pentagont a mesterséges intelligencia használatának korlátozása miatt?

Az Anthropic szerint a Pentagon ellátási lánc kockázatának minősítette a pert, miután a cég elutasította a szélesebb körű, az autonóm fegyverekre és a belföldi megfigyelésre is kiterjedő feltételeket. Ez azt jelenti, hogy a per többről szól, mint pusztán a szállítói státuszról. Azt teszteli, hogy egy mesterséges intelligencia laboratórium képes-e betartani a szigorú biztonsági határértékeket, és továbbra is versenyezni a kormányzati munkákért anélkül, hogy büntetést szenvedne.

Miért támogatják az OpenAI és a Google alkalmazottai az Anthropicot ebben a mesterséges intelligencia biztonsági vitában?

Az amicus curiae jelentés azt jelzi, hogy a rivális laboratóriumokban dolgozók közül sokan precedensértékű mesterséges intelligencia biztonsági problémának tekintik ezt, nem csupán egy vállalat és egy ügynökség közötti harcnak. Aggodalmuk az, hogy egy szállító megbüntetése a vörös vonalak fenntartása miatt nyomást gyakorolhat a szélesebb piacra a biztosítékok gyengítésére. A gyakorlatban ez alakíthatja a jövőbeli védelmi és közszféra mesterséges intelligencia szerződéseinek tárgyalását.

Mit változtathat az Antropp-Pentagon eset a mesterséges intelligencia politikájában és a védelmi szerződésekben?

Ha az Anthropic nyer, a mesterséges intelligencia cégei erősebb alapokra tehetnek szert az elfogadhatatlan felhasználások meghatározásában, még akkor is, ha érzékeny kormányzati környezetbe értékesítenek. Ha veszít, az ügynökségek előnyre tehetnek szert, hogy szélesebb körű „jogszerű felhasználási” feltételeket követeljenek a beszállítóktól. Akárhogy is, ez a vita valószínűleg befolyásolni fogja a beszerzési nyelvezetet, a kockázatértékeléseket és azt, ahogyan a biztonsági korlátokat belefoglalják a védelmi megállapodásokba.

Miért vásárolta meg az OpenAI a Promptfoo-t mesterséges intelligencia ügynökök számára?

A Promptfoo arról ismert, hogy nagy nyelvi modelleket tesztel ellenséges promptok és más biztonsági gyengeségek ellen. Az ilyen eszközök beillesztése az OpenAI vállalati ügynökplatformjába azt sugallja, hogy a vállalat a biztonságosabb telepítést versenyelőnynek, nem pedig mellékfeladatnak tekinti. Ahogy a mesterséges intelligencia ügynökei egyre érdemibb munkát végeznek, a rugalmasság és a visszaélések tesztelése sokkal nehezebben figyelmen kívül hagyható.

Hogyan tudják a csapatok biztonságosabban kezelni a mesterséges intelligencia által generált kódok áradatát?

Az Anthropic új, a Claude Code-on belüli kódfelülvizsgálati funkciója azoknak a csapatoknak szól, akiket túlterhelnek a mesterséges intelligencia által generált kódolóeszközök által generált pull requestek. Több ügynököt használ párhuzamosan a logikai problémák kiszűrésére, a súlyosság rangsorolására és a GitHubon található megjegyzések hozzáfűzésére. Az ehhez hasonló eszközök jellemzően segítenek a mennyiség rangsorolásában, de az emberi felülvizsgálók továbbra is fontosak az architektúra, a kontextus és a végső jóváhagyás szempontjából.

Miért fektetnek be mostanában annyit a mesterséges intelligencia infrastruktúrájába?

Az Nscale legújabb finanszírozási köre rávilágít arra, hogy a mesterséges intelligencia iparág továbbra is hatalmas tőkét fektet a számítástechnikába, az infrastruktúrába és a kapacitásba. Ez a kiadás talán kevésbé látható, mint egy mutatós modellbemutató, de minden más alapját képezi. Amikor a képzés és a telepítés iránti kereslet folyamatosan növekszik, a csákányokat és lapátokat árusító cégek gyakran a legnagyobb nyertesek közé tartoznak.

Mik azok a világmodellek, és miért fogad rájuk Yann LeCun?

A világmodellek olyan mesterséges intelligencia rendszerek, amelyek célja, hogy a világ viselkedéséből tanuljanak, ahelyett, hogy elsősorban nyelvi adatokra támaszkodnának. Ez azért fontos, mert Yann LeCun régóta azt állítja, hogy a nyelvi modellek önmagukban valószínűleg nem érik el az emberi szintű intelligenciát. Az AMI Labs ezt a nézetet egy jelentős kereskedelmi ajánlattá alakítja át a fejlett mesterséges intelligencia-kutatás egy másik útján.

Miért támogatják a kínai technológiai központok az OpenClaw-t a biztonsági figyelmeztetések ellenére?

Az OpenClaw története egy ismerős megosztottságot mutat a gyorsan mozgó technológiai piacokon belül: a helyi önkormányzatok növekedést, támogatásokat és az ökoszisztéma lendületét akarják, míg a szabályozók az adatok kiszivárgása és biztonsága miatt aggódnak. Az ügynök figyelmeztetések ellenére történő támogatása arra utal, hogy egyes helyeken gazdasági ösztönzők érvényesülnek. A megfigyelők számára ez egy újabb emlékeztető arra, hogy az adaptáció gyakran gyorsabb, mint a felügyelet.

Tegnapi MI hírek: 2026. március 8

Találd meg a legújabb mesterséges intelligenciát a hivatalos AI Assistant áruházban

Rólunk

Vissza a bloghoz