MI Hírek 2026. március 4

MI Hírek Összefoglalója: 2026. március 4

🏛️ A kormány új laboratóriumot hoz létre, hogy az Egyesült Királyság a mesterséges intelligencia áttöréseinek gyors sávjában maradjon

Az Egyesült Királyság egy kormány által támogatott Fundamental AI Research Lab-ot hoz létre, amelyet „kék ég” munkának állít be – olyan munkának, amely kockázatos, lassú, és néha úgy kifizetődő, hogy mindenki más úgy néz ki, mintha elbóbiskolt volna. ( GOV.UK )

A hangsúly nem csak a „nagyobb modelleken, több GPU-n” van – a makacs hibák, például a hallucinációk, a rövid memória és a kiszámíthatatlan gondolkodásmód kezelésén, valamint a kutatók számára a mesterséges intelligencia kutatási erőforrásán keresztül elérhető komoly számítási kapacitáson keresztül történik. Nagyon értelmesnek hangzik... és csendben olyan is, mint egy kísérlet arra, hogy megakadályozzák, hogy az Egyesült Királyság legjobb elméi azonnal máshol porszívózzák fel magukat. ( GOV.UK )

🧨 Az Nvidia vezérigazgatója utalt az OpenAI-ba és az Anthropicba történő befektetések végére

Jensen Huang azt jelzi, hogy az Nvidia esetleg nem folytatja a határterületi mesterséges intelligencia laboratóriumokba való befektetést ugyanúgy – az IPO dinamikája (és a vitatott ellenőrzések hatalmas mértéke) miatt az ilyen típusú finanszírozás nehezebben megvalósítható. ( Reuters )

Ez egy figyelemre méltó tónusváltás: az Nvidia a csákányos-ásós király ebben az egész fellendülésben, mégis arra utal, hogy a „bányászok darabjainak birtoklása” már nem mindig a cél. Vagy talán csak hangosan védekezik, amit a vezérigazgatók tesznek, mint a légzést. ( Reuters )

🧩 Exkluzív: Nagy tech csoport támogatja az Anthropicot a Pentagonnal folytatott harcban, miközben a befektetők a mesterséges intelligencia védelmével kapcsolatos összetűzés deeszkalációjára törekszenek

Az Anthropic Pentagonnal kapcsolatos patthelyzete egyfajta nyomás alatti edényzé válik – a befektetők állítólag a hőmérséklet csökkentését szeretnék, miközben a vállalat igyekszik tartani magát a biztonsági előírásokhoz (különösen a megfigyeléssel kapcsolatban). ( Reuters )

A történet mögöttes üzenete szinte hangosabb, mint maga a szöveg: a mesterséges intelligencia korszakában a szerződések megfogalmazása nem „jogi kötözködés”, hanem alapvetően termékpolitika – és ez dönti el, hogy egy modellből eszköz, fegyver vagy kiterjedt felelősség lesz. ( Reuters )

🪖 Sam Altman elismeri, hogy az OpenAI nem tudja irányítani a Pentagon mesterséges intelligencia használatát

Altman állítólag azt mondta a munkatársaknak, hogy az OpenAI nem tudja befolyásolni, hogyan használja a Pentagon a mesterséges intelligenciáját, miután azt bevetették – ami puffanással csapódik le, mert pontosan megnevezi azt a félelmet, amelyet az emberek körülvettek. ( The Guardian )

A tágabb hátteret a „segítünk, szabályokkal” és a „segítünk, pont” között fokozódó súrlódás jelenti, valamint a belső és nyilvános ellenállás, amikor a katonai bevezetése elhamarkodottnak vagy opportunistának tűnik. Az etika itt kevésbé egy sima szöveg, és inkább egy kiömlött festékfolt – mindenki belelép, aztán vitatkozik arról, hogy kinek a cipője a megfelelő. ( The Guardian )

🧬 Új mesterséges intelligencia ösztöndíj a genomikában a Sanger Intézettel és a Google DeepMinddel

A Wellcome Sanger Intézet elindít egy DeepMind által finanszírozott akadémiai ösztöndíjat, amely a mesterséges intelligencia genomikában való alkalmazására összpontosít – ez az első ilyen jellegű hely egy DeepMind ösztöndíjas számára ezen a területen. ( sanger.ac.uk )

Ami érdekes (és őszintén szólva, egy kicsit üdítő), az a kevéssé feltárt genomikai problémákra helyezett hangsúly, ahol a mesterséges intelligencia még nincs mindenhol jelen – ráadásul az a kifejezett megjegyzés, hogy a DeepMind nem irányítja a munkatárs kutatását. Olyan ez, mintha adnánk valakinek egy rakétát, és azt mondanánk: „menj, fedezz fel valamit”, ahelyett, hogy „menj, optimalizáld az ütemtervünket”. ( sanger.ac.uk )

GYIK

Mi az Egyesült Királyság kormánya által támogatott Fundamental AI Research Lab, és mit fog csinálni?

A kormány által támogatott Fundamental AI Research Lab-ot „kék égbolt” kutatási projektként pozicionálják – magas kockázatú munkaként, amelynek megtérülése időbe telhet. Ahelyett, hogy csak az egyre nagyobb modellek skálázására koncentrálna, olyan állandó problémákkal kíván foglalkozni, mint a hallucinációk, a rövid memória és a kiszámíthatatlan gondolkodás. A lényeg az, hogy az áttörések az alapokból származnak, nem pusztán több GPU hozzáadásával.

Hogyan segítheti az Egyesült Királyság Fundamentális Mesterséges Intelligencia Kutatólaboratóriuma a kutatókat a komoly számítástechnikai adatokhoz való hozzáférésben?

Az Egyesült Királyság Fundamentális Mesterséges Intelligencia Kutatólaboratóriuma mellett a terv kiemeli a jelentős számítási kapacitáshoz való hozzáférést az AI Research Resource-on keresztül. A gyakorlatban ez azt jelenti, hogy a kutatók olyan kísérleteket végezhetnek, amelyeket egyébként a költségek vagy az infrastruktúra korlátozna. Lehetővé teszi a csapatok számára, hogy olyan mértékben teszteljék az ötleteket, ahol az olyan problémák, mint a megbízhatóság és a robusztusság, kézzelfoghatóvá válnak, nem csak elméletiek.

Miért helyez az Egyesült Királyság hangsúlyt a hallucinációkra, a rövid memóriára és a kiszámíthatatlan érvelésre?

Ezek a gyengeségek olyanok, amelyek a telepítés során kerülnek felszínre, és gyorsan alááshatják a bizalmat. A kimondott fókusz azt sugallja, hogy a cél nem csupán a képesség, hanem a megbízhatóság is – a kitalált kimenetek csökkentése, a modellek hosszabb kontextuskezelésének javítása és az érvelés kiszámíthatatlanabbá tétele. Az ilyen típusú munka gyakran lassabb és kockázatosabb, ezért alapkutatásként kategorizálják.

Mit jelez valójában az Nvidia hangvételének változása az OpenAI-ba vagy Anthropicba történő befektetésekkel kapcsolatban?

A jelentés arra utal, hogy az Nvidia esetleg nem folytatja a határterületi laboratóriumokba való befektetést ugyanilyen módon, különösen mivel az IPO-dinamika és a hatalmas csekkösszegek bonyolítják ezt a stratégiát. Még a mesterséges intelligencia hardverek terén „válogatós” vezetőként is azt sugallja, hogy a tulajdonosi részesedések nem mindig a legjobb megoldás. Ez óvatos üzenetküldés is lehet, ami gyakori a vezetői nyilatkozatokban.

Miért akkora ügy az Anthropic Pentagonnal folytatott vitája a „védjegyekkel kapcsolatos nyelvezetről”?

A cikk lényege, hogy a szerződések megfogalmazása termékpolitikává válhat – különösen, ha megfigyelést és más érzékeny felhasználási módokat érint. A befektetők állítólag szeretnék csökkenteni az összetűzést, míg a vállalat megpróbálja tartani magát a biztosítékokhoz. Számos mesterséges intelligencia telepítésénél ezek a záradékok alakítják ki, hogy mire használható a rendszer, és milyen kockázatokat vállal a vállalat.

Mit jelent az, amikor Sam Altman azt mondja, hogy az OpenAI nem tudja irányítani, hogyan használja a Pentagon a mesterséges intelligenciát?

Ez egy gyakorlati korlátot ír le: miután egy eszközt telepítettek, az eredeti fejlesztőnek korlátozott lehetőségei lehetnek a későbbi felhasználás szabályozására. Ez azért fontos, mert rámutat arra az alapvető félelemre, amelyet az emberek a katonai alkalmazással kapcsolatban felvetnek – a szabályok létezhetnek a szerződéskötési szakaszban, de a betartatásuk nehézkes lehet. Emellett a „segítség korlátozásokkal” és a „segítség mindenképpen” közötti tágabb feszültséget is tükrözi

Tegnapi MI hírek: 2026. március 3

Találd meg a legújabb mesterséges intelligenciát a hivatalos AI Assistant áruházban

Rólunk

Vissza a bloghoz