Mi a felelőssége a generatív mesterséges intelligenciát használó fejlesztőknek?

Mi a felelőssége a generatív mesterséges intelligenciát használó fejlesztőknek?

Rövid válasz: A generatív mesterséges intelligenciát használó fejlesztők a teljes rendszerért felelősek, nem csak a modell kimenetéért. Amikor a mesterséges intelligencia befolyásolja a döntéseket, a kódot, az adatvédelmet vagy a felhasználói bizalmat, biztonságos alkalmazásokat kell választaniuk, ellenőrizniük kell az eredményeket, védeniük kell az adatokat, csökkenteniük kell a károkat, és biztosítaniuk kell, hogy az emberek áttekinthessék, felülírhassák és kijavíthassák a hibákat.

Főbb tanulságok:

Ellenőrzés : A finomhangolt kimeneteket nem megbízhatóként kezeljük, amíg források, tesztek vagy emberi felülvizsgálat meg nem erősíti azokat.

Adatvédelem : Minimalizálja a prompt adatokat, távolítsa el az azonosítókat, és biztosítsa a naplókat, a hozzáférés-vezérlést és a szállítókat.

Igazságosság : Végezzen tesztelést különböző demográfiai csoportokban és kontextusokban a sztereotípiák és az egyenetlen kudarcminták feltárása érdekében.

Átláthatóság : Világosan jelölje meg a mesterséges intelligencia használatát, magyarázza el a korlátait, és biztosítson emberi felülvizsgálatot vagy fellebbezést.

Felelősségre vonhatóság : Jelöljön ki egyértelmű felelősöket a telepítésért, az incidensekért, a monitorozásért és a visszavonásért az indítás előtt.

Mi a felelőssége a generatív mesterséges intelligenciát használó fejlesztőknek? Infografika

Cikkek, amiket esetleg ezután érdemes elolvasnod:

🔗 A legjobb mesterséges intelligencia által támogatott eszközök szoftverfejlesztőknek: A legjobb mesterséges intelligenciával működő kódolási asszisztensek
Hasonlítsa össze a legjobb mesterséges intelligenciával támogatott kódolási asszisztenseket a gyorsabb és letisztultabb fejlesztési munkafolyamatok érdekében.

🔗 A 10 legjobb mesterséges intelligencia eszköz fejlesztőknek a termelékenység növelésére
Fejlesztői mesterséges intelligencia eszközök rangsorolt ​​listája az intelligensebb kódoláshoz és a sebességhez.

🔗 Miért lehet rossz a mesterséges intelligencia a társadalom és a bizalom szempontjából?
Elmagyarázza a valós veszélyeket: az elfogultságot, a magánéletet, a munkahelyeket és a félretájékoztatás kockázatait.

🔗 Túl messzire ment a mesterséges intelligencia a nagy téttel bíró döntésekben?
Meghatározza, hogy mikor lépi át a mesterséges intelligencia a határokat: megfigyelés, deepfake-ek, meggyőzés, beleegyezés hiánya.

Miért fontosabb a generatív mesterséges intelligenciát használó fejlesztők felelőssége, mint azt az emberek gondolnák?

Sok szoftverhiba idegesítő. Egy gomb elromlik. Egy oldal lassan töltődik be. Valami összeomlik, és mindenki nyögdécsel.

A generatív mesterséges intelligenciával kapcsolatos problémák eltérőek lehetnek. Lehetnek finomak is.

Egy modell magabiztosnak tűnhet, miközben téved. NIST GenAI profil Képes a torzítást reprodukálni nyilvánvaló figyelmeztető jelek nélkül. NIST GenAI profil Gondtalan használat esetén érzékeny adatokat tehet közzé. OWASP Top 10 LLM alkalmazásokhoz Az ICO nyolc kérdése a generatív mesterséges intelligenciához Olyan kódot tud előállítani, amely működik - amíg valamilyen mélyen kínos módon meg nem hibázik az éles környezetben. OWASP Top 10 LLM alkalmazásokhoz Olyan, mintha egy nagyon lelkes gyakornokot vennénk fel, aki soha nem alszik, és időről időre lenyűgöző magabiztossággal talál ki tényeket.

Ezért a generatív mesterséges intelligenciát használó fejlesztők felelőssége nagyobb, mint az egyszerű megvalósítás. A fejlesztők már nem csak logikai rendszereket építenek. Valószínűségi rendszereket építenek fuzzy élekkel, kiszámíthatatlan kimenetekkel és valós társadalmi következményekkel. NIST AI RMF

Ez azt jelenti, hogy a felelősség magában foglalja:

Tudod, hogy megy ez - amikor egy eszköz varázslatosnak tűnik, az emberek nem kérdőjelezik meg. A fejlesztők nem engedhetik meg maguknak, hogy ennyire nyugodtak legyenek.

Mitől lesz jó a fejlesztők felelősségének egy verziója a Generatív MI használatával? 🛠️

A felelősségvállalás jó formája nem performatív. Nem csak arról szól, hogy hozzáadunk egy felelősségkizárást az aljára, és etikának nevezzük. Megnyilvánul a tervezési döntésekben, a tesztelési szokásokban és a termék viselkedésében.

Így néz ki általában a generatív mesterséges intelligenciát használó fejlesztők felelősségének

Ha ez soknak hangzik, nos... az is. De ez a helyzet, ha olyan technológiával dolgozol, amely nagymértékben befolyásolhatja a döntéseket, a hiedelmeket és a viselkedést. OECD MI-alapelvek

Összehasonlító táblázat - a generatív mesterséges intelligenciát használó fejlesztők alapvető felelőssége egy pillantásra 📋

Felelősségi terület Kit érint Napi fejlesztői gyakorlat Miért fontos
Pontosság és ellenőrzés felhasználók, csapatok, ügyfelek Kimenetek áttekintése, validációs rétegek hozzáadása, szélső esetek tesztelése A mesterséges intelligencia lehet gördülékeny, mégis vadul tévedhet – ami egy durva kombináció – NIST GenAI Profil
Adatvédelem felhasználók, ügyfelek, belső munkatársak Minimalizálja az érzékeny adatok használatát, törölje a promptokat, és felügyelje a naplókat Ha kiszivárognak a privát adatok, a fogkrém kikerül a tubusból 😬 Az ICO nyolc kérdése a generatív mesterséges intelligenciához: OWASP Top 10 LLM alkalmazásokhoz
Elfogultság és méltányosság alulreprezentált csoportok, valójában minden felhasználó Audit kimenetek, tesztelés, változatos bemenetek, biztonsági intézkedések finomhangolása A kár nem mindig hangos – néha szisztematikus és csendes. NIST GenAI Profil ICO útmutatás a mesterséges intelligenciáról és az adatvédelemről.
Biztonság vállalati rendszerek, felhasználók Modellhozzáférés korlátozása, azonnali befecskendezés elleni védelem, kockázatos műveletek tesztelése Egyetlen okos kihasználás gyorsan lerombolhatja a bizalmat OWASP Top 10 LLM alkalmazásokhoz NCSC a mesterséges intelligenciáról és a kiberbiztonságról
Átláthatóság végfelhasználók, szabályozó hatóságok, támogató csapatok Címkézd fel egyértelműen a mesterséges intelligencia működését, magyarázd el a korlátokat, dokumentáld a használatát Az embereknek tudniuk kell, mikor segít a gép. Az OECD MI-alapelveinek gyakorlati kódexe a mesterséges intelligencia által generált tartalmak megjelölésére és címkézésére vonatkozóan.
Elszámoltathatóság terméktulajdonosok, jogi szakemberek, fejlesztőcsapatok Felelősségvállalás, incidenskezelés és eszkalációs útvonalak meghatározása „A mesterséges intelligencia tette” – ez nem felnőtt válasz. OECD MI-alapelvek
Megbízhatóság mindenki, aki megérinti a terméket Hibák figyelése, megbízhatósági küszöbértékek beállítása, tartalék logika létrehozása A modellek sodródnak, váratlan módon kudarcot vallanak, és időről időre drámai kis epizódokat élnek át. NIST AI RMF NCSC biztonságos AI irányelvek
Felhasználói jóllét különösen a sebezhető felhasználók Kerülje a manipulatív tervezést, korlátozza a káros kimeneteket, tekintse át a magas kockázatú felhasználási eseteket Attól, hogy valami generálható, még nem jelenti azt, hogy OECD MI-alapelveknek megfelelőnek . NIST AI RMF

Kissé egyenetlen az asztal, persze, de illik a témához. Az igazi felelősség is egyenetlen.

A felelősség már az első kérdés előtt elkezdődik – a megfelelő használati eset kiválasztása 🎯

A fejlesztők egyik legnagyobb felelőssége annak eldöntése, hogy egyáltalán használjunk-e generatív mesterséges intelligenciát . NIST AI RMF

Ez nyilvánvalónak hangzik, mégis folyton kihagyják. A csapatok meglátnak egy modellt, izgatottá válnak, és elkezdik olyan munkafolyamatokba erőltetni, amelyeket jobban lehetne kezelni szabályokkal, kereséssel vagy hagyományos szoftverlogikával. Nem minden problémához van szükség nyelvi modellre. Néhány problémához adatbázisra és egy csendes délutánra van szükség.

Építés előtt a fejlesztőknek fel kell tenniük a kérdést:

Egy felelős fejlesztő nem csak azt kérdezi: „Meg tudjuk ezt építeni?”, hanem azt: „Így kellene ezt építeni?” NIST AI RMF

Már önmagában ez a kérdés is sok sületlenséget óv meg.

A pontosság felelősség, nem pedig bónusz ✅

Legyünk világosak – a generatív mesterséges intelligencia egyik legnagyobb csapdája az ékesszólás és az igazság összetévesztése. A modellek gyakran olyan válaszokat adnak, amelyek kifinomultnak, strukturáltnak és mélyen meggyőzőnek tűnnek. Ami nagyszerű, amíg a tartalom nem huncutságba burkolt, bizalmas álca. NIST GenAI Profil

Tehát a Generatív MI-t használó fejlesztők felelőssége magában foglalja az ellenőrzésre való felépítést is.

Ez azt jelenti:

Ez nagyon fontos olyan területeken, mint:

  • egészségügy

  • pénzügy

  • jogi munkafolyamatok

  • oktatás

  • ügyfélszolgálat

  • vállalati automatizálás

  • kódgenerálás

A generált kód például rendezettnek tűnhet, miközben elrejti a biztonsági hibákat vagy a logikai hibákat. Egy fejlesztő, aki vakon másolja, nem hatékony – egyszerűen szebb formátumban kiszervezi a kockázatot. OWASP Top 10 LLM alkalmazásokhoz NCSC a mesterséges intelligenciáról és a kiberbiztonságról

A modell segíthet. Az eredmény továbbra is a fejlesztő tulajdonát képezi. OECD MI-alapelvek

Az adatvédelem és az adatkezelés nem képezheti alku tárgyát 🔐

Itt kezdenek komolyra fordulni a dolgok. A generatív MI-rendszerek gyakran promptokra, naplókra, kontextuális ablakokra, memóriarétegekre, elemzésekre és harmadik féltől származó infrastruktúrára támaszkodnak. Ez rengeteg lehetőséget teremt arra, hogy az érzékeny adatok kiszivárogjanak, megmaradjanak, vagy olyan módon újra felhasználhatók legyenek, amire a felhasználók soha nem számítottak. Az ICO nyolc kérdése a generatív MI-hez: OWASP Top 10 LLM alkalmazásokhoz.

A fejlesztők felelősséggel tartoznak a következők védelméért:

  • személyes adatok

  • pénzügyi nyilvántartások

  • orvosi adatok

  • belső vállalati adatok

  • üzleti titkok

  • hitelesítési tokenek

  • ügyfélkommunikáció

A felelős gyakorlatok közé tartozik:

Ez egyike azoknak a területeknek, ahol az „elfelejtettünk rá gondolni” nem apró hiba. Ez egy bizalomromboló kudarc.

És a bizalom, ha egyszer megtört, úgy terjed, mint a leejtett üveg. Talán nem a legtökéletesebb metafora, de érted, mire gondolok.

Elfogultság, méltányosság és képviselet – a csendesebb felelősségek ⚖️

A generatív mesterséges intelligenciában az elfogultság ritkán egy rajzfilmfigura gonosztevője. Általában ennél árnyaltabb. Egy modell sztereotip munkaköri leírásokat, egyenetlen moderálási döntéseket, egyenetlen ajánlásokat vagy kulturálisan szűk feltételezéseket hozhat létre anélkül, hogy nyilvánvaló riasztást váltana ki. NIST GenAI Profil

Ezért a Generatív MI-t használó fejlesztők felelőssége magában foglalja az aktív méltányossági munkát.

A fejlesztőknek a következőket kell tenniük:

Egy rendszer látszólag összességében jól működik, miközben egyes felhasználókat következetesen rosszabbul szolgál ki, mint másokat. Ez nem elfogadható csak azért, mert az átlagos teljesítmény jól mutat egy irányítópulton. ICO útmutatás a mesterséges intelligenciáról és az adatvédelemről NIST GenAI profil

És igen, a méltányosság nehezebb, mint egy átgondolt ellenőrzőlista. Van benne ítélőképesség. Kontextus. Kompromisszumok. Egy kis kellemetlenség is. De ez nem mentesíti a felelősséget – megerősíti azt. ICO útmutatás a mesterséges intelligenciáról és az adatvédelemről.

A biztonság mostantól részben gyors tervezés, részben mérnöki szakma 🧱

A generatív MI-biztonság egy sajátos szörnyeteg. A hagyományos alkalmazásbiztonság természetesen továbbra is fontos, de a MI-rendszerek szokatlan támadási felületeket kínálnak: azonnali injektálás, közvetett azonnali manipuláció, nem biztonságos eszközhasználat, adatszivárgás kontextuson keresztül, és modellel való visszaélés automatizált munkafolyamatokon keresztül. OWASP Top 10 LLM alkalmazásokhoz NCSC a MI-ről és a kiberbiztonságról

A fejlesztők felelősek a teljes rendszer biztonságáért, nem csak a felület biztonságáért. NCSC biztonságos mesterséges intelligencia irányelvek

A főbb felelősségi körök itt a következők:

Az egyik kellemetlen igazság az, hogy a felhasználók – és a támadók – mindenképpen olyan dolgokat próbálnak ki, amikre a fejlesztők nem számítottak. Van, aki kíváncsiságból, van, aki rosszindulatból, vagy megint más, mert hajnali 2-kor rossz dologra kattintott. Megesik.

A generatív mesterséges intelligencia biztonsága kevésbé hasonlít egy fal építéséhez, és inkább egy nagyon beszédes kapuőr irányításához, akit néha megtéveszt a megfogalmazás.

Az átláthatóság és a felhasználói beleegyezés fontosabb, mint a hivalkodó felhasználói élmény 🗣️

Amikor a felhasználók mesterséges intelligenciával lépnek interakcióba, tudniuk kell róla. Az OECD MI-alapelvek gyakorlati kódexe a mesterséges intelligencia által generált tartalmak megjelölésére és címkézésére vonatkozóan.

Nem homályosan. Nem szavakba öntve. Egyértelműen.

A generatív mesterséges intelligenciát használó fejlesztők felelősségének egyik alapvető része annak biztosítása, hogy a felhasználók megértsék:

Az átláthatóság nem a felhasználók megfélemlítéséről szól, hanem a tiszteletükről.

A jó átláthatóság magában foglalhatja a következőket:

Sok termékfejlesztő csapat aggódik, hogy az őszinteség kevésbé fogja varázslatosnak érezni a funkciót. Talán. De a hamis bizonyosság még rosszabb. Egy letisztult felület, ami elrejti a kockázatot, alapvetően csiszolt zűrzavar.

A fejlesztők továbbra is felelősségre vonhatók – még akkor is, ha a modell „dönt” 👀

Ez a rész nagyon fontos. A felelősséget nem lehet kiszervezni a modell szállítójára, a modellkártyára, a sablonra vagy a gépi tanulás titokzatos légkörére. OECD MI-alapelvek NIST AI RMF

A fejlesztők továbbra is felelősek. OECD MI-alapelvek

Ez azt jelenti, hogy a csapatban valakinek a következőkkel kell rendelkeznie:

Világos válaszokat kell adni az olyan kérdésekre, mint:

Tulajdonjog nélkül a felelősség köddé válik. Mindenki azt feltételezi, hogy valaki más intézi... aztán senki sem teszi.

Ez a minta valójában régebbi, mint a mesterséges intelligencia. A mesterséges intelligencia egyszerűen veszélyesebbé teszi.

A felelős fejlesztők a javításra, nem a tökéletességre építenek 🔄

És itt van az apró csavar ebben az egészben: a felelős MI-fejlesztés nem arról szól, hogy úgy teszünk, mintha a rendszer tökéletes lenne. Arról van szó, hogy feltételezzük, valamilyen módon kudarcot vall, és ezt a valóságot figyelembe véve tervezzük meg. NIST AI RMF

Ez azt jelenti, hogy olyan termékeket kell gyártani, amelyek:

Így néz ki az érettség. Nem csillogó demók. Nem lélegzetelállító marketingszöveg. Valódi rendszerek, korlátokkal, naplókkal, elszámoltathatósággal és annyi alázattal, hogy beismerjék, a gép nem varázsló. NCSC biztonságos MI irányelvek, OECD MI alapelvek.

Mert nem az. Ez egy eszköz. Egy erős eszköz, igen. De akkor is eszköz.

Záró gondolatok a generatív mesterséges intelligenciát használó fejlesztők felelősségéről 🌍

Szóval, mi a felelőssége a generatív mesterséges intelligenciát használó fejlesztőknek ?

Gondosan kell építeni. Meg kell kérdőjelezni, hogy a rendszer hol segít és hol árt. Védeni kell a magánéletet. Tesztelni kell az elfogultságot. Ellenőrizni kell a kimeneteket. Biztosítani kell a munkafolyamatot. Átláthatónak kell lenni a felhasználók felé. Érdemleges kontrollt kell fenntartani az emberek felett. Felelősséget kell vállalni, ha a dolgok rosszul mennek. NIST AI RMF OECD AI-alapelvek

Ez talán túlzásnak hangzik – és az is. De ez az, ami megkülönbözteti az átgondolt fejlesztést a felelőtlen automatizálástól.

A generatív mesterséges intelligenciát használó legjobb fejlesztők nem azok, akik a legtöbb trükköt hajtják végre a modellel. Ők azok, akik megértik ezeknek a trükköknek a következményeit, és ennek megfelelően terveznek. Tudják, hogy a sebesség számít, de a bizalom az igazi termék. Furcsa módon ez a régimódi ötlet még mindig állja a helyét. NIST AI RMF

Végső soron a felelősség nem akadálya az innovációnak. Ez az, ami megakadályozza, hogy az innováció drága, turbulens terjeszkedéssé váljon, kifinomult felülettel és bizalmi problémákkal. 😬✨

És talán ez a legegyszerűbb változata.

Építs bátran, persze – de úgy építs, mintha az embereket érintené, mert valóban érintik őket. OECD MI-alapelvek

GYIK

Mi a felelőssége a generatív mesterséges intelligenciát alkalmazó fejlesztőknek a gyakorlatban?

A generatív mesterséges intelligenciát használó fejlesztők felelőssége messze túlmutat a funkciók gyors leszállításán. Magában foglalja a megfelelő használati eset kiválasztását, a kimenetek tesztelését, az adatvédelem védelmét, a káros viselkedés csökkentését és a rendszer felhasználók számára érthetővé tételét. A gyakorlatban a fejlesztők továbbra is felelősek az eszköz tervezéséért, felügyeletéért, javításáért és meghibásodás esetén történő irányításáért.

Miért igényel a generatív mesterséges intelligencia több fejlesztői felelősséget, mint a hagyományos szoftverek?

A hagyományos hibák gyakran nyilvánvalóak, de a generatív MI hibái csiszoltnak tűnhetnek, miközben továbbra is hibásak, elfogultak vagy kockázatosak. Ez megnehezíti a problémák észrevételét, és a felhasználók számára könnyebb tévedésből megbízni bennük. A fejlesztők valószínűségi rendszerekkel dolgoznak, így a felelősség magában foglalja a bizonytalanság kezelését, a károk korlátozását és a kiszámíthatatlan kimenetekre való felkészülést a bevezetés előtt.

Honnan tudják a fejlesztők, hogy mikor nem szabad generatív mesterséges intelligenciát használni?

Gyakori kiindulópont, hogy megkérdezzük, vajon a feladat nyitott végű-e, vagy szabályokkal, kereséssel vagy standard szoftverlogikával jobban kezelhető. A fejlesztőknek azt is figyelembe kell venniük, hogy mekkora kárt okozhat egy rossz válasz, és hogy egy ember reálisan át tudja-e tekinteni az eredményeket. A felelős használat néha azt jelenti, hogy egyáltalán nem használunk generatív mesterséges intelligenciát.

Hogyan csökkenthetik a fejlesztők a hallucinációkat és a rossz válaszokat a generatív mesterséges intelligencia rendszerekben?

A pontosságot bele kell tervezni, nem pedig feltételezni. Sok folyamatban ez azt jelenti, hogy a kimeneteket megbízható forrásokban kell megalapozni, a generált szöveget el kell választani az ellenőrzött tényektől, és a magasabb kockázatú feladatokhoz felülvizsgálati munkafolyamatokat kell használni. A fejlesztőknek tesztelniük kell a rendszert összezavarni vagy félrevezetni szándékozó promptokat is, különösen olyan területeken, mint a kód, a támogatás, a pénzügy, az oktatás és az egészségügy.

Mi a felelőssége a generatív mesterséges intelligenciát használó fejlesztőknek az adatvédelem és az érzékeny adatok tekintetében?

A generatív mesterséges intelligenciát használó fejlesztők felelőssége magában foglalja a modellbe bevitt adatok minimalizálását, valamint a promptok, naplók és kimenetek bizalmasként való kezelését. A fejlesztőknek lehetőség szerint el kell távolítaniuk az azonosítókat, korlátozniuk kell az adatok megőrzését, ellenőrizniük kell a hozzáférést, és gondosan ellenőrizniük kell a szállítói beállításokat. A felhasználóknak azt is meg kell érteniük, hogyan kezelik az adataikat, ahelyett, hogy később fedeznék fel a kockázatokat.

Hogyan kezeljék a fejlesztők az elfogultságot és a méltányosságot a generatív MI-kimenetekben?

Az elfogultságokkal kapcsolatos munka aktív értékelést igényel, nem feltételezéseket. Gyakorlati megközelítés, ha a kérdéseket különböző demográfiai csoportok, nyelvek és kontextusok között teszteljük, majd a kimeneteket áttekintjük sztereotípiák, kizárások vagy egyenetlen hibaminták szempontjából. A fejlesztőknek olyan módokat is kell létrehozniuk, amelyek segítségével a felhasználók vagy a csapatok jelenthetik a káros viselkedést, mivel egy rendszer összességében erősnek tűnhet, miközben bizonyos csoportokat folyamatosan kudarcot vall.

Milyen biztonsági kockázatokra kell a fejlesztőknek gondolniuk a generatív mesterséges intelligencia használatával kapcsolatban?

A generatív mesterséges intelligencia új támadási felületeket vezet be, beleértve az azonnali injektálást, a nem biztonságos eszközhasználatot, az adatszivárgást kontextuson keresztül és az automatizált műveletek visszaélésszerű használatát. A fejlesztőknek fertőtleníteniük kell a megbízhatatlan bemenetet, korlátozniuk kell az eszközengedélyeket, korlátozniuk kell a fájl- és hálózati hozzáférést, és figyelniük kell a visszaélések mintáit. A biztonság nem csak a felületről szól; a modell körüli teljes munkafolyamatra vonatkozik.

Miért fontos az átláthatóság a generatív mesterséges intelligenciával való építkezés során?

A felhasználóknak világosan kell tudniuk, hogy mikor van jelen mesterséges intelligencia, mire képes, és hol vannak a korlátai. A jó átláthatóság magában foglalhat olyan címkéket, mint például a mesterséges intelligencia által generált vagy mesterséges intelligencia által támogatott, egyszerű magyarázatokat és egyértelmű útvonalakat az emberi támogatáshoz. Ez a fajta őszinteség nem gyengíti a terméket; segít a felhasználóknak kalibrálni a bizalmat és jobb döntéseket hozni.

Ki a felelős, ha egy generatív mesterséges intelligencia funkció kárt okoz vagy valami rosszul sül el?

A fejlesztők és a termékfejlesztő csapatok továbbra is a felelősek az eredményért, még akkor is, ha a modell adja a választ. Ez azt jelenti, hogy egyértelmű felelősségnek kell lennie a telepítés jóváhagyásáért, az incidensek kezeléséért, a visszagörgetésért, a monitorozásért és a felhasználói kommunikációért. A „modell döntött” nem elég, mert a felelősségnek továbbra is azoknál az embereknél kell maradnia, akik a rendszert tervezték és elindították.

Hogyan néz ki a felelős generatív mesterséges intelligencia fejlesztése a bevezetés után?

A felelősségteljes fejlesztés a kiadás után is folytatódik monitorozás, visszajelzés, felülvizsgálat és korrekció révén. Az erős rendszerek auditálhatók, megszakíthatók, helyreállíthatók, és tartalék útvonalakkal vannak ellátva, ha a mesterséges intelligencia meghibásodik. A cél nem a tökéletesség; olyasvalaminek az építése, amelyet biztonságosan meg lehet vizsgálni, fejleszteni és módosítani, amikor valós problémák merülnek fel.

Referenciák

  1. Nemzeti Szabványügyi és Technológiai Intézet (NIST) - NIST GenAI profil - nvlpubs.nist.gov

  2. OWASP - OWASP top 10 LLM jelentkezéshez - owasp.org

  3. Információs Biztos Hivatala (ICO) - Az ICO nyolc kérdése a generatív mesterséges intelligenciával kapcsolatban - ico.org.uk

Találd meg a legújabb mesterséges intelligenciát a hivatalos AI Assistant áruházban

Rólunk

Vissza a bloghoz