AI Hírek 2026. február 22

MI Hírek Összefoglalója: 2026. február 22

🏫 Néhány iskolában chatbotok kérdezik a diákokat a munkájukról. De a mesterséges intelligencia forradalma aggasztja a tanárokat

Néhány ausztrál iskola egy élesebb csavart tesztel a „mutasd meg, mire vagy képes” módszerben – a diákok befejezik a feladatot, majd egy mesterséges intelligencia által vezérelt chatbot oda-vissza kérdezi tőlük, hogy megértették-e a beadott anyagot. Ez alapvetően egy szóbeli önvizsgálat, de egy gép addig kérdezi meg: „Mit értesz ezalatt?”, amíg a tanuló elkezd fészkelődni.

A nagyobb aggodalom az egyenetlen bevezetés: egy iparági tanulmány arra figyelmeztet, hogy a gyorsan adaptálók rohamosan előretörhetnek, míg mások lemaradnak, ami egy kétsebességes oktatási rendszert eredményezhet. A tanárok továbbra is az ismerős – és még mindig komoly – aggályokat hangsúlyozzák: az adatvédelmet, a jóllétet, és azt, hogyan lehet megakadályozni, hogy a „mesterséges intelligencia segítsége” átcsapjon a „mesterséges intelligencia megcsinálta” kategóriába.

👮 A Palantir által biztosított mesterséges intelligencia eszközöket használó rendőrök felderítik a rendőri visszaéléseket

A londoni Met a Palantir által szállított mesterséges intelligenciát használja a belső munkaerő-mintázatok – betegség, hiányzások, túlórák – elemzésére, olyan jeleket keresve, amelyek összefüggésben lehetnek a szakmai normákkal kapcsolatos kérdésekkel. A projektet időkorlátos kísérleti projektként hirdetik, és ami a legfontosabb, a Met szerint továbbra is emberek hozzák meg a tényleges döntéseket... de ez „még mindig” rengeteg munkát végez.

A Rendőrségi Szövetség (POL) nincs elragadtatva a dologtól, „automatizált gyanúnak” nevezik, és figyelmeztetnek az átláthatatlan eszközökre, amelyek a stresszt és a munkaterhelést helytelen cselekedetként értelmezik. Ez egyike azoknak a pillanatoknak, amikor a technológia jól hangzik a dián, aztán elképzeljük, hogyan érződik a földön, és hirtelen bizsergést vált ki.

🛡️ Brit adatvédelmi felügyelő közös nyilatkozatban figyelmeztet a mesterséges intelligencia által generált képekre

Az Egyesült Királyság ICO-ja más szabályozó hatóságokkal közösen figyelmeztetett a mesterséges intelligencia által generált, azonosítható személyeket beleegyezés nélkül ábrázoló képekre – lényegében: ne tekintsük a „szintetikus” kifogást csodaszernek. Az üzenet az, hogy a klasszikus technológiai lépés helyett – először szállítunk, majd csak később kérünk bocsánatot –, már korán kell védelmet teremteni és a szabályozó hatóságokat bevonni.

Rámutatnak a gyermekeket fenyegető fokozott kockázatokra is, ami érthető, mert ha ez az anyag egyszer elterjedt, olyan, mintha csillámporokat próbálnánk visszalapátolni egy üvegbe. A lényeg az, hogy a magánéletnek és a méltóságnak túl kell élnie a divatciklust, vagy legalábbis úgy tűnik.

🪖 Az Axios jelentése szerint Hegseth amerikai védelmi miniszter kemény tárgyalásokra hívta be az Anthropic vezérigazgatóját Claude katonai felhasználásáról

A Reuters jelentése szerint az amerikai védelmi miniszter találkozni fog az Anthropic vezérigazgatójával, hogy egy konfrontatívabb beszélgetést folytassanak Claude katonai felhasználásáról. A Pentagon állítólag azt szeretné, ha a nagyobb mesterséges intelligencia szolgáltatók kevesebb korlátozással tennék elérhetővé a modelleket titkosított hálózatokon – és az Anthropic ellenállt a biztosítékok enyhítésének.

A mögöttes szöveg egy klasszikus „gyorsan kell cselekedni, de… rakétákkal” dilemmára emlékeztet. Ha a felek nem tudnak megegyezni a korlátokban, a kapcsolat megfeszülhet, vagy akár meg is szakadhat – az Anthropic mégis azt jelzi, hogy a kormánnyal folytatott tárgyalások továbbra is konstruktívak, tehát feszült a helyzet, de (még) nem teljes szakításról szóló szövegek.

🧠 ChatGPT - Kiadási megjegyzések

Az OpenAI kiadási megjegyzései egy kibővített kontextusablakra utalnak a „Gondolkodás” módhoz – ami azt jelenti, hogy több szöveget adhatsz a modellnek, és a hosszabb szálakat koherensebben tarthatod anélkül, hogy a korábbi részleteket elveszítené. Ha valaha is láttál már, hogy egy modell „elfelejt” valamit, amit szó szerint mondtál (fájdalom), akkor ez pontosan erre a célra készült.

Ez egy nagyon stréber felújítás, ami csendben megváltoztatja azt, ami praktikus: hosszabb dokumentumok, kuszább projektek, terjedelmesebb kutatómunkák. Nem elbűvölő, de az a fajta vízvezeték-csere, amitől hirtelen az egész ház nagyobbnak tűnik.

GYIK

Mit jelent az, amikor az iskolák chatbotokat használnak a diákok „kihallgatására” a házi feladatokkal kapcsolatban?

Néhány ausztrál iskolában a diákok elkészítenek egy feladatot, majd egy mesterséges intelligencia által vezérelt chatbottal beszélgetnek, amely felméri az érvelésüket. A robot szóbeli párbeszédként működik, arra kényszerítve a diákokat, hogy magyarázzák el, mit írtak és miért. A cél a megértés ellenőrzése, nem csak a kimenet. Hiányosságokat is feltárhat, amikor egy diák nem tudja megvédeni a kulcsfontosságú állításait.

Hogyan hozhatnának létre „kétsebességes” oktatási rendszert az iskolákban található mesterséges intelligencia alapú chatbotok?

Egy iparági tanulmány arra figyelmeztet, hogy a gyorsan alkalmazkodó iskolák előnyre tehetnek szert, míg a lassabban haladó iskolák még jobban lemaradnak. Ha egyes iskolák mesterséges intelligencia eszközöket alkalmaznak a megértés felmérésére, a tanulás támogatására vagy a helytelen használat megakadályozására, akkor hamarabb javíthatják az eredményeket. Más iskoláknak hiányozhat a költségvetésük, a személyzeti kapacitásuk vagy a szakpolitikájuk egyértelműsége a hasonló rendszerek bevezetéséhez. Ez az egyenetlen elterjedés tovább mélyítheti a meglévő erőforrás- és teljesítménybeli különbségeket.

Hogyan próbálják megakadályozni a tanárok, hogy a „mesterséges intelligencia segítsége” átcsapjon a „mesterséges intelligencia tette” elbeszélésbe?

Egy gyakori megközelítés az, hogy az értékelést a folyamatra és a magyarázatra helyezik át, ne csak a késztermékre. A chatbot-stílusú kérdezés, a vázlatok, a reflexiók vagy a szóbeli ellenőrzések megnehezíthetik a nem értett munka beadását. A tanárok szigorúbb határokat is szabhatnak az elfogadható segítségnyújtásnak, például az ötletelés kontra a teljes átírás. A hangsúly továbbra is a megértés bemutatásán marad, nem pedig minden eszköz ellenőrzésén.

Milyen adatvédelmi és jólléti problémák merülnek fel, amikor a mesterséges intelligenciát használják az osztálytermekben?

A tanárok folyamatosan aggodalmukat fejezik ki amiatt, hogy milyen tanulói adatokat gyűjtenek, hol tárolják azokat, és ki férhet hozzájuk. Jólléti aggodalmak is felmerülnek, ha a diákok úgy érzik, hogy folyamatosan gépi kérdezésekkel figyelik vagy nyomás alatt tartják őket. A gyerekek különösen veszélyeztetett csoportot alkotnak, mivel az érzékeny információk váratlan módon terjedhetnek vagy maradhatnak fenn a rendszerekben. Sok iskola igyekszik korán bevezetni a biztonsági intézkedéseket, ahelyett, hogy később megpróbálná azokat utólag beépíteni.

Hogyan használja a Metropolitan Police a Palantir által szállított mesterséges intelligenciát a potenciális rendőri visszaélések jelzésére?

A londoni Met a Palantir által szállított mesterséges intelligenciát használja a munkaerő-mintázatok, például a betegség, a hiányzások és a túlórák elemzésére. A cél az olyan jelek kiszűrése, amelyek összefüggésben állhatnak a szakmai normákkal kapcsolatos kérdésekkel. A projektet időkorlátos kísérleti projektként írják le, és a Met szerint továbbra is emberek hozzák meg a döntéseket. A kritikusok azzal érvelnek, hogy az eszköz „automatizált gyanúnak” tűnhet, ha a stresszt helytelen cselekedetnek értelmezi.

Miért aggódnak a rendőri szakszervezetek a mesterséges intelligencia felügyeleti eszközei által kiváltott „automatizált gyanú” miatt?

A Rendőrségi Szövetség aggodalmát fejezi ki amiatt, hogy az átláthatatlan modellek olyan mintákból következtethetnek a szabálytalanságokra, amelyekre ártalmatlan magyarázatok vannak. A megugró munkaterhelés, az egészségügyi problémák és a stressz a jelenlét vagy a túlórák eltolódását okozhatja anélkül, hogy szabálytalanságra utalna. Ha az eszköz logikája nem átlátható, a rendőrök számára nehezebbé válik a jelzések megkérdőjelezése, vagy a vezetők számára a méltányos küszöbértékek kalibrálása. Még emberi döntések esetén is az automatizált jelek befolyásolhatják az eredményeket.

Mire figyelmeztet az Egyesült Királyság ICO az azonosítható személyek mesterséges intelligencia által generált képeivel kapcsolatban?

Az Egyesült Királyság adatvédelmi felügyelője más szabályozó hatóságokkal együttműködve arra figyelmeztetett, hogy a „szintetikus” nem jelenti azt, hogy következményektől mentes. Ha egy mesterséges intelligencia által generált kép egy azonosítható személy beleegyezése nélkül ábrázol, az adatvédelmi és méltósági kockázatok továbbra is fennállnak. A szabályozó hatóságok hangsúlyozzák a biztosítékok korai kiépítését és a felügyeleti beavatkozást a szállítás helyett. Emellett felhívják a figyelmet a gyermekeket fenyegető fokozott kockázatokra, ahol a kár gyorsan kiterjedhet, amint a tartalom elterjed.

Mi áll a Pentagon Anthropicra gyakorolt ​​állítólagos nyomása mögött Claude katonai felhasználásával kapcsolatban?

A Reuters jelentése szerint az amerikai védelmi miniszter az Anthropic vezérigazgatójával fog találkozni, hogy keményebb tárgyalásokat folytassanak Claude katonai felhasználásáról. A Pentagon állítólag azt szeretné, ha a nagyobb mesterséges intelligencia szolgáltatók kevesebb korlátozással tennék elérhetővé modelljeiket titkosított hálózatokon. Az Anthropic eddig ellenállt a lazább biztosítékoknak, utalva a korlátok miatti összetűzésre. A kapcsolat feszültnek tűnik, bár mindkét fél jelzi, hogy a tárgyalások továbbra is konstruktívak.

Mi változott a ChatGPT kiadási megjegyzéseiben a „Gondolkodás” mód kontextushosszával kapcsolatban?

Az OpenAI kiadási megjegyzései egy kibővített kontextuális ablakra utalnak a „Gondolkodás” módhoz, amely lehetővé teszi, hogy több szöveg férjen el egyetlen szálon belül. A gyakorlatban ez segíthet hosszú dokumentumok, összetett projektek és többlépéses kutatások esetén, ahol a korábbi részletek számítanak. Ez inkább egy egyszerű fejlesztés, mint egy hivalkodó funkció. A fő előny a kevesebb kihagyott részlet a hosszabb munkamenetek során.

Tegnapi MI hírek: 2026. február 21

Találd meg a legújabb mesterséges intelligenciát a hivatalos AI Assistant áruházban

Rólunk

Vissza a bloghoz