💰 Az Amazon tárgyalásokat folytat 10 milliárd dolláros befektetésről a ChatGPT fejlesztőjével
Az Amazon állítólag tárgyalásokat folytat arról, hogy több mint 10 milliárd dollárt fektessen be az OpenAI-ba – és ha ez valóban megtörténik, az OpenAI értékelését a „várjunk csak, komolyan?” zónába emelné 500 milliárd dollár fölé. A finanszírozás és a stratégiai összehangolás keverékeként pozicionálják... plusz a legegyszerűbb motivátor: a számítási éhség.
A jelentések azt is sugallják, hogy az OpenAI jobban támaszkodhat az AWS kapacitására, és potenciálisan elkezdheti használni az Amazon Trainium chipjeit, alapvetően ezt a modellskálázás következő hullámának ellátási vezetékévé alakítva (vagy legalábbis úgy tűnik – ezek a tárgyalások meginoghatnak).
🔗 Tovább olvasom
🧑💻 A fejlesztők mostantól beküldhetnek alkalmazásokat a ChatGPT-be
Az OpenAI megnyitotta az alkalmazások beküldését értékelésre és közzétételre a ChatGPT-en belül, egy terméken belüli alkalmazáskönyvtár mellett, ahol a felhasználók böngészhetnek a kiemelt alkalmazások között, vagy kereshetnek bármit, ami már megjelent. Az alkalmazások elindíthatók beszélgetés közben @megemlítésekkel, vagy kiválaszthatók az eszközök menüből – nagyon „alkalmazások, de csevegés-natívak”.
Emellett egy Apps SDK-t (béta) is piacra dobnak, valamint egy sor fejlesztői erőforrást (példák, UI könyvtár, gyorstalpaló). A monetizáció egyelőre óvatos – többnyire a tranzakciók befejezéséhez kapcsolódnak –, de elég egyértelmű, hogy az OpenAI azt szeretné, ha ez egy valódi ökoszisztémává fejlődne.
🔗 Bővebben
🗞️ Bemutatkozik az OpenAI Akadémia hírszervezeteknek
Az OpenAI elindított egy újságíróknak, szerkesztőknek és kiadóknak szóló tanulási központot, amelyet olyan partnerekkel építettek, mint az American Journalism Project és a Lenfest Institute. A cél: gyakorlati képzés és kézikönyvek, amelyek segítik a szerkesztőségeket a mesterséges intelligencia használatában anélkül, hogy csendben aláásnák a folyamatba vetett bizalmat.
Az Akadémia indulási terve tartalmazza a „MI-alapismeretek újságíróknak” című programot, valamint olyan felhasználási eseteket, mint az oknyomozó/háttérkutatás, fordítás, adatelemzés és a produkciós hatékonyság. Emellett nagyon hangsúlyos a felelősségteljes használat és a belső irányítás – mert igen, valakinek meg kell írnia azt a szakpolitikai dokumentumot, amit senki sem akar megírni.
🔗 Bővebben
⚡ Gemini 3 Flash: a sebességre épített határintelligencia
A Google a Gemini 3 Flash-t egy gyorsabb és költséghatékonyabb modellként mutatta be – és alapértelmezetté tette a Gemini alkalmazásban és a keresési MI módban. A szlogen lényege alapvetően a „Professzionális szintű érvelés, Flash-szintű sebesség”, ami szlogennek hangzik... de egyben a jelenlegi verseny egészét is leírja.
Fejlesztői és vállalati felületeken is bevezetik (Gemini API, AI Studio, Vertex AI és egyebek). A furcsán fontos mögöttes üzenet: a Google ezt a modellt mindenhol látni akarja, ahol az emberek már tartózkodnak, így az átállási költségek kezdenek a gravitációnak tűnni.
🔗 Bővebben
🧩 Az OpenUSD és az NVIDIA Halos felgyorsítja a robotaxiszok és a fizikai mesterséges intelligencia rendszerek biztonságát
Az NVIDIA a szimulációs szabványokat és a biztonsági munkafolyamatokat egy koherensebb „fizikai mesterséges intelligencia” rendszerbe foglalja – robotokba és önvezető járművekbe, amelyeknek túl kell élniük a valós káoszt. Ennek egyik kulcsfontosságú összetevője az OpenUSD Core Specification 1.0, amelynek célja, hogy a 3D/szimulációs folyamatokat kiszámíthatóbbá és az eszközök közötti interoperábilisabbá tegye.
A biztonság terén az NVIDIA kiemeli a Halos AI Systems Inspection Lab-ot (és tanúsítási programot), amely robotaxi flották, audiovizuális rendszerek, érzékelők és platformok számára készült. A korai résztvevők között szerepel a Bosch, a Nuro és a Wayve, az Onsemi pedig elsőként teljesítette az ellenőrzést – egy kellemes kis „jelvényfeloldási” pillanat.
🔗 Bővebben
🧪 Az UC San Diego laboratóriuma az NVIDIA DGX B200 rendszerrel fejleszti a generatív mesterséges intelligencia kutatását
A UC San Diego Hao AI Lab egy NVIDIA DGX B200 rendszert kapott, hogy támogassa az alacsony késleltetésű LLM-következtetéssel kapcsolatos kutatásokat – ez a visszataszító módszer, amely eldönti, hogy a „MI azonnalinak tűnik-e”, vagy „olyan, mintha a pirítósra várnánk”. Az NVIDIA azt is megjegyzi, hogy az olyan termelési következtető rendszerek, mint a Dynamo, a laboratórium munkájából származó koncepciókra, többek között a DistServe-re is támaszkodnak.
A történet erősen a „goodput” és az átviteli sebesség közötti különbségre helyezi a hangsúlyt – alapvetően arra az átviteli sebességre, amely még mindig eléri a késleltetési célokat. Azt is leírják, hogy az előtöltést és a dekódolást különböző GPU-k között osztják fel az erőforrás-interferencia csökkentése érdekében, ami igen, stréber, de ez az a fajta stréberség, ami megváltoztatja egy termék érzetét.
🔗 Bővebben
🏗️ A Hut 8 245 MW kapacitási megállapodást írt alá a Fluidstackkel az Anthropic-kal kötött több gigawattos partnerség részeként.
A Hut 8 hosszú távú szerződést írt alá River Bend-i campusán 245 MW kapacitásra, melynek keretében a Fluidstack mesterséges intelligenciával foglalkozó felhőcégnek ad bérbe egy 7 milliárd dollár értékű épületet (olyan opciókkal, amelyek akár még magasabb árat is elérhetnek). Az Anthropic a szélesebb körű partnerség révén végfelhasználóként vesz részt benne – ez egy kriptobányász infrastruktúra, amely ismét mesterséges intelligencia-erőforrássá alakul, csak… nagyobb mértékben.
Emellett elővásárlási jog is van akár további 1 GW-ra River Bendben, plusz a nagyobb bankok finanszírozási bevonása és egy Google-védőháló. Őszintén szólva az egész úgy hangzik, mintha „A mesterséges intelligencia energiát és ingatlanokat akar – és már tegnap is akarja őket.”
🔗 Tovább olvasom