Lühike vastus: Generatiivset tehisintellekti kasutavad arendajad vastutavad kogu süsteemi, mitte ainult mudeli väljundi eest. Kui tehisintellekt mõjutab otsuseid, koodi, privaatsust või kasutajate usaldust, peavad nad valima ohutud rakendused, kontrollima tulemusi, kaitsma andmeid, vähendama kahju ja tagama, et inimesed saavad vigu üle vaadata, tühistada ja parandada.
Peamised järeldused:
Kontrollimine : käsitle viimistletud väljundeid ebausaldusväärsetena, kuni allikad, testid või inimeste poolt läbi viidud ülevaatus need kinnitab.
Andmekaitse : minimeerige kiirandmeid, eemaldage identifikaatorid ning turvake logid, juurdepääsu kontroll ja tarnijad.
Õiglus : testige erinevate demograafiliste näitajate ja kontekstide lõikes, et tuvastada stereotüüpe ja ebaühtlaseid ebaõnnestumise mustreid.
Läbipaistvus : märgistage tehisintellekti kasutamine selgelt, selgitage selle piire ja pakkuge inimese poolt läbivaatamist või apellatsiooni.
Vastutus : Enne käivitamist määrake selged omanikud juurutamise, intsidentide, jälgimise ja tagasipööramise eest.

Artiklid, mida võiksite pärast seda lugeda:
🔗 Parimad tehisintellekti tööriistad tarkvaraarendajatele: parimad tehisintellektil põhinevad kodeerimisassistendid
Kiiremate ja puhtamate arendusprotsesside loomiseks võrdle parimaid tehisintellektiga kodeerimisassistente.
🔗 10 parimat tehisintellekti tööriista arendajatele tootlikkuse suurendamiseks
Nutikama kodeerimise ja kiiruse tagamiseks mõeldud arendajate tehisintellekti tööriistade edetabel.
🔗 Miks tehisintellekt võib olla ühiskonnale ja usaldusele halb
Selgitab reaalse maailma kahjusid: eelarvamused, privaatsus, töökohad ja väärinfo riskid.
🔗 Kas tehisintellekt on kõrge panusega otsuste tegemisel liiale läinud?
Määratleb, millal tehisintellekt ületab piire: jälgimine, süvavõltsingud, veenmine, nõusoleku puudumine.
Miks on generatiivse tehisintellekti kasutavate arendajate vastutus olulisem, kui inimesed arvavad
Paljud tarkvaravead on tüütud. Nupp ei tööta. Leht laeb aeglaselt. Midagi jookseb kokku ja kõik oigavad.
Generatiivse tehisintellekti probleemid võivad olla erinevad. Need võivad olla peened.
Mudel võib kõlada enesekindlalt, olles samal ajal vale. NIST GenAI profiil See suudab eelarvamusi taasesitada ilma ilmsete hoiatusmärkideta. NIST GenAI profiil See võib hooletu kasutamise korral paljastada tundlikke andmeid. OWASP 10 parimat LLM-rakenduste jaoks ICO kaheksa küsimust generatiivse tehisintellekti kohta See suudab toota toimivat koodi – kuni see mingil sügavalt piinlikul moel tootmises üles ütleb. OWASP 10 parimat LLM-rakenduste jaoks Nagu väga entusiastliku praktikandi palkamine, kes kunagi ei maga ja aeg-ajalt hämmastava enesekindlusega fakte välja mõtleb.
Seepärast generatiivset tehisintellekti kasutavate arendajate vastutus suurem kui lihtsalt rakendamine. Arendajad ei ehita enam ainult loogilisi süsteeme. Nad ehitavad tõenäosuslikke süsteeme, millel on hägused servad, ettearvamatud väljundid ja reaalsed sotsiaalsed tagajärjed. NIST AI RMF
See tähendab, et vastutus hõlmab järgmist:
-
NIST AI RMF mudeli piiride mõistmine
-
Kasutajate privaatsuse kaitsmine ICO juhised tehisintellekti ja andmekaitse kohta
-
kahjulike väljundite vähendamine NIST GenAI profiil
-
täpsuse kontrollimine enne usalduse andmist NIST GenAI profiil
-
Inimese rolli selgeks tegemine OECD tehisintellekti põhimõtete abil
-
Varulahenduste väljatöötamine tehisintellekti rikke korral OECD tehisintellekti põhimõtted NCSC turvalise tehisintellekti suunised
-
süsteemi selge dokumenteerimine OECD tehisintellekti põhimõtete alusel
Tead küll, kuidas see käib – kui tööriist tundub maagiline, siis inimesed lõpetavad selle kahtluse alla seadmise. Arendajad ei saa endale nii lõdvestunud olemist lubada.
Mis teeb generatiivse tehisintellekti kasutava arendaja vastutusest hea versiooni? 🛠️
Hea vastutustundlikkus ei ole performatiivne. See ei ole lihtsalt lahtiütluse lisamine lõppu ja selle eetikaks nimetamine. See ilmneb disainivalikutes, testimisharjumustes ja toote käitumises.
Generatiivset tehisintellekti kasutavate arendajate vastutuse tugev versioon näeb tavaliselt välja selline:
-
NIST AI RMF-i tahtlik kasutamine
-
Tehisintellekti kasutatakse päris probleemi lahendamiseks, mitte ei suruta tootesse sisse sellepärast, et see kõlab moekalt.
-
-
Inimese järelevalve OECD tehisintellekti põhimõtted
-
Inimesed saavad väljundeid üle vaadata, parandada, tühistada või tagasi lükata.
-
-
Ohutus läbi disaini NCSC turvalise tehisintellekti juhised
-
Riskikontrollid luuakse varakult, mitte ei kinnitata hiljem teibiga kinni.
-
-
Läbipaistvus OECD tehisintellekti põhimõtted Euroopa Komisjon Tehisintellekti seaduse ülevaade
-
Kasutajad saavad aru, millal sisu on loodud tehisintellekti abil või tehisintellekti abil.
-
-
Andmete haldamise ICO kaheksa küsimust genereeriva tehisintellekti kohta
-
Tundlikku teavet käsitletakse hoolikalt ja juurdepääs sellele on piiratud.
-
-
Õigluse kontrollimine NIST GenAI profiili ICO juhised tehisintellekti ja andmekaitse kohta
-
Süsteemi testitakse eelarvamuste, ebaühtlase jõudluse ja kahjulike mustrite suhtes.
-
-
Pidev jälgimine NIST AI RMF NCSC turvalise tehisintellekti suunised
-
Start ei ole finišijoon. See on pigem nagu stardivile.
-
Kui see kõlab palju, siis... see ongi nii. Aga see ongi nii, kui töötad tehnoloogiaga, mis suudab otsuseid, uskumusi ja käitumist ulatuslikult mõjutada. OECD tehisintellekti põhimõtted.
Võrdlustabel – generatiivset tehisintellekti kasutavate arendajate põhivastutus lühidalt 📋
| Vastutusala | Keda see mõjutab | Igapäevane arendaja praktika | Miks see on oluline |
|---|---|---|---|
| Täpsus ja kontrollimine | kasutajad, meeskonnad, kliendid | Vaadake väljundid üle, lisage valideerimiskihid, testige servajuhtumeid | Tehisintellekt võib olla sujuv ja ikkagi metsikult ekslik – mis on ligikaudne kombinatsioon (NIST GenAI profiil) |
| Privaatsuse kaitse | kasutajad, kliendid, sisemine personal | Minimeeri tundlike andmete kasutamist, puhasta viipasid, kontrolli logisid | Kui privaatsed andmed lekivad, on hambapasta tuubist väljas 😬 ICO kaheksa küsimust generatiivse tehisintellekti kohta: OWASP, 10 parimat LLM-rakenduste jaoks |
| Eelarvamus ja õiglus | alaesindatud rühmad, tegelikult kõik kasutajad | Auditeeri väljundeid, testi erinevaid sisendeid, häälesta kaitsemeetmeid | Kahju ei ole alati vali – mõnikord on see süstemaatiline ja vaikne. NIST GenAI profiili ICO juhised tehisintellekti ja andmekaitse kohta. |
| Turvalisus | ettevõtte süsteemid, kasutajad | Piira mudelile juurdepääsu, kaitse kohese süstimise eest, riskantsed toimingud liivakastis | Üks nutikas ärakasutamine võib usalduse kiiresti hävitada OWASP Top 10 LLM rakenduste jaoks NCSC tehisintellekti ja küberturvalisuse kohta |
| Läbipaistvus | lõppkasutajad, regulaatorid, tugimeeskonnad | Märgistage tehisintellekti käitumine selgelt, selgitage piiranguid ja dokumenteerige kasutamist | Inimesed väärivad teada, millal masin aitab. OECD tehisintellekti põhimõtted ja tehisintellekti loodud sisu märgistamise ja märgistamise tegevusjuhend. |
| Vastutus | tooteomanikud, jurist, arendusmeeskonnad | Määrake omandiõigus, intsidentide käsitlemine ja eskalatsiooniteed | „Tehisintellekt tegi seda” ei ole täiskasvanulik vastus. OECD tehisintellekti põhimõtted. |
| Usaldusväärsus | kõik, kes toodet puudutavad | Jälgige tõrkeid, määrake usaldusnivid, looge varuloogika | Mudelid triivivad, ebaõnnestuvad ootamatutel viisidel ja aeg-ajalt esineb neil dramaatiline väike episood. NIST AI RMF NCSC turvalise tehisintellekti juhised |
| Kasutaja heaolu | haavatavate kasutajate, eriti | Väldi manipuleerivat disaini, piira kahjulikke väljundeid, vaata üle kõrge riskiga kasutusjuhud | See, et midagi saab genereerida, ei tähenda, et see peaks olema OECD tehisintellekti põhimõtete ja NIST tehisintellekti RMF-i |
Veidi ebaühtlane tabel, muidugi, aga see sobib teemaga. Tegelik vastutus on samuti ebaühtlane.
Vastutus algab juba enne esimest vihjet – õige kasutusjuhtumi valimine 🎯
Üks arendajate suurimaid kohustusi on otsustada, kas generatiivset tehisintellekti üldse kasutada . NIST AI RMF
See kõlab ilmselgelt, aga seda jäetakse kogu aeg vahele. Meeskonnad näevad mudelit, satuvad elevile ja hakkavad seda sundima töövoogudesse, mida reeglid, otsing või tavaline tarkvaraloogika paremini lahendaksid. Mitte iga probleem ei vaja keelemudelit. Mõned probleemid vajavad andmebaasi ja vaikset pärastlõunat.
Enne ehitamist peaksid arendajad küsima:
-
Kas ülesanne on avatud või deterministlik?
-
Kas vale väljund võib kahju tekitada?
-
Kas kasutajad vajavad loovust, ennustamist, kokkuvõtete tegemist, automatiseerimist – või lihtsalt kiirust?
-
Kas inimesed usaldavad väljundit liiga palju? NIST GenAI profiil
-
Kas inimene suudab tulemusi realistlikult hinnata? OECD tehisintellekti põhimõtted
-
Mis juhtub, kui mudel on vale? OECD tehisintellekti põhimõtted
Vastutustundlik arendaja ei küsi lihtsalt: „Kas me saame seda ehitada?“. Ta küsib: „Kas seda peaks nii ehitama?“ . NIST AI RMF
See küsimus iseenesest hoiab ära palju läikivat jama.
Täpsus on kohustus, mitte boonus ✅
Olgem ausad – üks generatiivse tehisintellekti suurimaid lõkse on kõneosavus tõega ekslikult eksitada. Mudelid annavad sageli vastuseid, mis kõlavad viimistletult, struktureeritult ja sügavalt veenvalt. Mis on tore, kuni sisu muutub konfidentsiaalsusse mähitud jamaks. NIST GenAI profiil
Seega generatiivset tehisintellekti kasutavate arendajate vastutus ka verifitseerimiseks ehitamist.
See tähendab:
-
võimaluse korral väljatõstmise või maandamisega NIST GenAI profiil
-
loodud sisu eraldamine kinnitatud faktidest OECD tehisintellekti põhimõtted
-
usalduskünniste hoolikas lisamine NIST AI RMF
-
kõrge panusega väljundite läbivaatamise töövoogude loomine OECD tehisintellekti põhimõtete alusel
-
mudeli improviseerimise takistamine kriitilistes kontekstides NIST GenAI profiil
-
testimisülesanded, mis üritavad süsteemi murda või eksitada OWASP Top 10 LLM rakenduste jaoks
See on väga oluline sellistes valdkondades nagu:
-
tervishoid
-
rahandus
-
juriidilised töövood
-
haridus
-
klienditugi
-
ettevõtte automatiseerimine
-
koodi genereerimine
Näiteks genereeritud kood võib tunduda korralik, varjates samal ajal turvaauke või loogikavigu. Arendaja, kes seda pimesi kopeerib, ei ole efektiivne – ta lihtsalt annab riski ilusamas vormingus edasi. OWASP 10 parimat LLM-rakenduste jaoks NCSC tehisintellekti ja küberturvalisuse alal.
Mudel saab abiks olla. Tulemus kuulub endiselt arendajale. OECD tehisintellekti põhimõtted
Privaatsus ja andmekaitse ei ole läbiräägitavad 🔐
Siin lähevad asjad kohe tõsiseks. Generatiivsed tehisintellekti süsteemid tuginevad sageli viipadele, logidele, kontekstiakendele, mälukihtidele, analüütikale ja kolmanda osapoole infrastruktuurile. See loob palju võimalusi tundlike andmete lekkimiseks, säilitamiseks või taaskasutamiseks viisil, mida kasutajad kunagi ei oodanud. ICO kaheksa küsimust generatiivse tehisintellekti kohta OWASP Top 10 LLM-rakendustele
Arendajatel on kohustus kaitsta:
-
isikuandmed
-
finantsdokumendid
-
meditsiinilised andmed
-
ettevõtte siseandmed
-
ärisaladused
-
autentimismärgid
-
kliendisuhtlus
Vastutustundlikud tavad hõlmavad järgmist:
-
mudelisse sisenevate andmete minimeerimine ICO kaheksa generatiivse tehisintellekti küsimust
-
identifikaatorite maskeerimine või eemaldamine NIST GenAI profiil
-
logide säilitamise piiramine ICO juhised tehisintellekti ja andmekaitse kohta
-
kontrollides, kellel on juurdepääs küsimustele ja väljunditele OWASP Top 10 LLM-rakenduste jaoks
-
NCSC turvalise tehisintellekti juhised
-
kõrge riskiga töövoogude isoleerimine NCSC turvalise tehisintellekti suunised
-
Privaatsuskäitumise nähtavaks tegemine kasutajatele ICO kaheksa küsimust genereeriva tehisintellekti kohta
See on üks neist valdkondadest, kus „me unustasime sellele mõelda” pole tühine viga. See on usaldust lõhkuv ebaõnnestumine.
Ja kui usaldus on kord purunenud, levib see nagu maha kukkunud klaas. Võib-olla mitte just kõige kenam metafoor, aga saate aru.
Eelarvamus, õiglus ja esindatus – vaiksemad kohustused ⚖️
Generatiivse tehisintellekti puhul on eelarvamused harva koomiksipõhised kaabakad. Tavaliselt on need veelgi libedamad. Mudel võib luua stereotüüpseid ametijuhendeid, ebaühtlaseid modereerimisotsuseid, ühekülgseid soovitusi või kultuuriliselt kitsaid eeldusi ilma ilmseid häirekellasid käivitamata. NIST GenAI profiil
Seetõttu generatiivset tehisintellekti kasutavate arendajate vastutus aktiivset õigluse tagamist.
Arendajad peaksid:
-
erinevate demograafiliste rühmade ja kontekstide testiküsimused NIST GenAI profiili põhjal
-
NIST GenAI profiili stereotüüpide ja tõrjutuse väljunditest ülevaate saamine
-
kaasake hindamise käigus erinevaid vaatenurki NIST AI RMF
-
Jälgige ebaühtlaseid rikkemustreid NIST GenAI profiil
-
vältige eeldust, et üks keelestiil või kultuurinorm sobib kõigile; ICO juhised tehisintellekti ja andmekaitse kohta.
-
luua kahjuliku väljundi kohta aruandluskanalid NIST AI RMF
Süsteem võib tunduda üldiselt hästi töötavat, kuid teenindada mõnda kasutajat halvemini kui teisi. See ei ole vastuvõetav ainult seetõttu, et keskmine jõudlus armatuurlaual hea välja näeb. ICO juhised tehisintellekti ja andmekaitse kohta NIST GenAI profiil
Ja jah, õiglus on keerulisem kui korralik kontrollnimekiri. Selles on otsustusvõimet. Konteksti. Kompromisse. Ka ebamugavustunnet. Aga see ei võta vastutust ära – see kinnitab seda. ICO juhised tehisintellekti ja andmekaitse kohta.
Turvalisus on nüüd osaliselt kiire disain, osaliselt inseneridistsipliin 🧱
Generatiivse tehisintellekti turvalisus on omaette omapärane asi. Traditsiooniline rakenduste turvalisus on muidugi endiselt oluline, kuid tehisintellekti süsteemid lisavad ebatavalisi rünnakupindu: kiire süstimine, kaudne kiire manipuleerimine, ohtlike tööriistade kasutamine, andmete väljavool konteksti kaudu ja mudeli väärkasutamine automatiseeritud töövoogude kaudu. OWASP 10 parimat LLM-rakenduste jaoks NCSC tehisintellekti ja küberturvalisuse alal
Arendajad vastutavad kogu süsteemi, mitte ainult liidese turvamise eest. NCSC turvalise tehisintellekti juhised
Peamised kohustused hõlmavad siin järgmist:
-
ebausaldusväärse sisendi puhastamine OWASP 10 parimat LLM-rakenduste jaoks
-
piirates, milliseid tööriistu mudel saab nimetada OWASP Top 10 LLM-rakenduste jaoks
-
failidele ja võrgule juurdepääsu piiramine NCSC turvalise tehisintellekti juhised
-
NCSC turvalise tehisintellekti juhised, mis eraldavad õigused selgelt
-
kuritarvitamise mustrite jälgimine NCSC turvalise tehisintellekti suunised
-
kiirust piiravad kallid või riskantsed tegevused OWASP Top 10 LLM-rakenduste jaoks
-
Vastassuunaliste teemade testimine OWASP 10 parimat LLM-i rakenduste jaoks
-
turvaliste varuvariantide loomine, kui juhised on vastuolus OECD tehisintellekti põhimõtetega
Üks ebamugav tõde on see, et kasutajad – ja ründajad – proovivad kindlasti asju, mida arendajad ei oodanud. Mõned uudishimust, mõned pahatahtlikkusest, mõned seetõttu, et nad klõpsasid kell 2 öösel valele asjale. See juhtub.
Generatiivse tehisintellekti turvalisus ei ole niivõrd müüri ehitamine kuivõrd väga jutuka väravavahi haldamine, keda vahel sõnastus petta laseb.
Läbipaistvus ja kasutaja nõusolek on olulisemad kui toretsev kasutajakogemus 🗣️
Kui kasutajad tehisintellektiga suhtlevad, peaksid nad seda teadma. OECD tehisintellekti põhimõtete tegevusjuhend tehisintellekti loodud sisu märgistamise ja märgistamise kohta
Mitte ebamääraselt. Mitte sõnadesse peidetud. Selgelt.
Generatiivset tehisintellekti kasutavate arendajate põhikohustus on tagada, et kasutajad mõistaksid järgmist:
-
tehisintellekti kasutamisel OECD tehisintellekti põhimõtete
-
Mida tehisintellekt saab ja mida mitte OECD tehisintellekti põhimõtted
-
kas väljundeid vaatavad üle inimesed OECD tehisintellekti põhimõtted
-
kuidas nende andmeid töödeldakse ICO kaheksa küsimust generatiivse tehisintellekti kohta
-
Milline peaks olema nende kindlustunne NIST AI RMF-i
-
Kuidas probleemidest teatada või otsuseid edasi kaevata? OECD tehisintellekti põhimõtted NIST tehisintellekti RMF
Läbipaistvus ei seisne kasutajate hirmutamises. See seisneb nende austamises.
Hea läbipaistvus võib hõlmata järgmist:
-
märgised, näiteks tehisintellekti loodud või tehisintellekti abil loodud sisu märgistamise ja sildistamise tegevusjuhend
-
lihtsates keeltes selgitused OECD tehisintellekti põhimõtete kohta
-
nähtavad muudatuste ajalood, kui need on asjakohased
-
valikud tehisintellekti funktsioonide väljalülitamiseks
-
eskaleerimine inimesele vajadusel OECD tehisintellekti põhimõtted
-
Kokkuvõtlikud hoiatused kõrge riskiga ülesannete kohta Euroopa Komisjoni tehisintellekti seaduse ülevaade
Paljud tootemeeskonnad muretsevad, et ausus muudab funktsiooni vähem maagiliseks. Võib-olla. Aga vale kindlus on hullem. Sujuv liides, mis varjab riski, on põhimõtteliselt lihvitud segadus.
Arendajad jäävad vastutavaks – isegi kui mudel „otsustab“ 👀
See osa on väga oluline. Vastutust ei saa delegeerida mudeli müüjale, mudeli kaardile, küsimuse mallile ega masinõppe salapärasele atmosfäärile. OECD tehisintellekti põhimõtted , NIST tehisintellekti RMF.
Arendajad vastutavad endiselt. OECD tehisintellekti põhimõtted
See tähendab, et meeskonnas peaks keegi omama:
-
mudeli valik NIST AI RMF
-
testimisstandardid NIST GenAI profiil
-
avaldamiskriteeriumid NIST GenAI profiil
-
NCSC turvalise tehisintellekti juhised intsidentidele reageerimiseks
-
Kasutajakaebuste käsitlemine NIST AI RMF
-
tagasipööramise protseduurid OECD tehisintellekti põhimõtted
-
muutuste jälgimine OECD tehisintellekti põhimõtted
-
dokumentatsioon OECD tehisintellekti põhimõtted
Sellistele küsimustele nagu: peaks olema selged vastused
-
Kes kiidab heaks juurutamise? NIST GenAI profiil
-
Kes vaatab läbi kahjuliku väljundiga seotud intsidente? NIST GenAI profiil
-
Kes saab funktsiooni keelata? OECD tehisintellekti põhimõtted
-
Kes jälgib regressioone? NIST AI RMF
-
Kes suhtleb kasutajatega, kui midagi katki läheb? OECD tehisintellekti põhimõtted
Ilma omandiõiguseta muutub vastutus uduseks. Kõik eeldavad, et keegi teine tegeleb sellega... ja siis ei tee seda keegi.
Tegelikult on see muster tehisintellektist vanem. Tehisintellekt muudab selle lihtsalt ohtlikumaks.
Vastutustundlikud arendajad ehitavad paranduste, mitte täiuslikkuse nimel 🔄
Ja siin ongi väike konks: tehisintellekti vastutustundlik arendamine ei seisne teesklemises, et süsteem on täiuslik. See seisneb eeldamises, et see mingil moel ebaõnnestub, ja selle reaalsuse järgi disainimises. NIST AI RMF
See tähendab toodete ehitamist, mis on:
-
auditeeritavad OECD tehisintellekti põhimõtted
-
otsuseid ja tulemusi saab hiljem üle vaadata
-
-
katkestatavad OECD tehisintellekti põhimõtted
-
inimesed saavad halva käitumise peatada või ümber lükata
-
-
taastatavad OECD tehisintellekti põhimõtted
-
Kui tehisintellekti väljund on vale, on olemas varuvõimalus
-
-
jälgitavad NCSC turvalise tehisintellekti juhised NIST tehisintellekti RMF
-
meeskonnad suudavad märgata mustreid enne, kui need katastroofideks muutuvad
-
-
täiustatav NIST GenAI profiil
-
tagasisideahelad on olemas ja keegi loeb neid
-
Nii näeb küpsus välja. Mitte läikivad demod. Mitte hingetuks võtvad turundustekstid. Päris süsteemid, millel on turvapiirded, logid, vastutus ja piisavalt alandlikkust, et tunnistada, et masin pole võlur. NCSC turvalise tehisintellekti juhised, OECD tehisintellekti põhimõtted.
Sest see pole nii. See on tööriist. Võimas, jah. Aga ikkagi tööriist.
Lõppmõtisklus arendajate vastutuse üle, kasutades generatiivset tehisintellekti 🌍
Milline on siis arendajate vastutus generatiivse tehisintellekti kasutamisel ?
See tähendab hoolikat ehitamist. Süsteemi kasulike ja kahjulike külgede kahtluse alla seadmist. Privaatsuse kaitsmist. Eelarvamuste testimist. Väljundite kontrollimist. Töövoo turvamist. Kasutajatega läbipaistvuse tagamist. Inimeste sisulise kontrolli säilitamist. Vastutuse kandmist, kui asjad valesti lähevad. NIST AI, RMF, OECD tehisintellekti põhimõtted.
See võib tunduda raske – ja nii see ongi. Aga see eristabki läbimõeldud arendust hoolimatust automatiseerimisest.
Parimad generatiivse tehisintellekti kasutavad arendajad ei ole need, kes panevad mudeli kõige rohkem trikke tegema. Nemad on need, kes mõistavad nende trikkide tagajärgi ja disainivad vastavalt. Nad teavad, et kiirus on oluline, aga usaldus on tegelik toode. Kummalisel kombel on see vanamoodne idee endiselt aktuaalne. NIST AI RMF
Lõppkokkuvõttes ei ole vastutus innovatsiooni takistuseks. See on see, mis hoiab ära innovatsiooni muutumise kalliks ja turbulentseks laialivalgumiseks, millel on lihvitud liides ja enesekindlusprobleem 😬✨
Ja võib-olla on see kõige lihtsam versioon.
Ehita julgelt, muidugi – aga ehita nii, nagu inimesi see mõjutaks, sest see mõjutabki neid. OECD tehisintellekti põhimõtted
KKK
Milline on generatiivse tehisintellekti praktikas kasutavate arendajate vastutus?
Generatiivset tehisintellekti kasutavate arendajate vastutus ulatub kaugemale funktsioonide kiirest pakkumisest. See hõlmab õige kasutusjuhtumi valimist, väljundite testimist, privaatsuse kaitsmist, kahjuliku käitumise vähendamist ja süsteemi kasutajatele arusaadavaks tegemist. Praktikas jäävad arendajad vastutavaks tööriista kujundamise, jälgimise, parandamise ja haldamise eest rikke korral.
Miks vajab generatiivne tehisintellekt rohkem arendaja vastutust kui tavaline tarkvara?
Traditsioonilised vead on sageli ilmsed, kuid genereeriva tehisintellekti tõrked võivad tunduda viimistletud, olles samal ajal valed, kallutatud või riskantsed. See muudab probleemid raskemini märgatavaks ja kasutajatel on lihtsam neid kogemata usaldada. Arendajad töötavad tõenäosuslike süsteemidega, seega hõlmab vastutus ebakindlusega toimetulekut, kahju piiramist ja ettearvamatute tulemustega toimetulekut enne turuletoomist.
Kuidas arendajad teavad, millal generatiivset tehisintellekti ei tohiks kasutada?
Levinud lähtepunkt on küsida, kas ülesanne on avatud või on seda parem lahendada reeglite, otsingu või standardse tarkvaraloogika abil. Arendajad peaksid kaaluma ka seda, kui palju kahju vale vastus võib tekitada ja kas inimene suudab tulemusi realistlikult üle vaadata. Vastutustundlik kasutamine tähendab mõnikord otsust mitte kasutada generatiivset tehisintellekti üldse.
Kuidas saavad arendajad generatiivsetes tehisintellekti süsteemides hallutsinatsioone ja valesid vastuseid vähendada?
Täpsus tuleb sisse kavandada, mitte eeldada. Paljudes torujuhtmetes tähendab see väljundite maandamist usaldusväärsetesse allikatesse, genereeritud teksti eraldamist kontrollitud faktidest ja ülevaatusprotsesside kasutamist suurema riskiga ülesannete jaoks. Arendajad peaksid testima ka süsteemi segadusse ajavaid või eksitavaid juhiseid, eriti sellistes valdkondades nagu kood, tugi, rahandus, haridus ja tervishoid.
Milline on genereerivat tehisintellekti kasutavate arendajate vastutus privaatsuse ja tundlike andmete eest?
Generatiivset tehisintellekti kasutavate arendajate vastutus hõlmab mudelisse sisenevate andmete minimeerimist ning päringute, logide ja väljundite käsitlemist tundlikena. Arendajad peaksid võimaluse korral eemaldama identifikaatorid, piirama säilitamist, kontrollima juurdepääsu ja hoolikalt üle vaatama tarnija seaded. Kasutajad peaksid ka aru saama, kuidas nende andmeid käideldakse, selle asemel, et riske hiljem avastada.
Kuidas peaksid arendajad käsitlema generatiivse tehisintellekti väljundite eelarvamusi ja õiglust?
Eelarvamustega töötamine nõuab aktiivset hindamist, mitte oletusi. Praktiline lähenemisviis on testida ülesandeid erinevate demograafiliste rühmade, keelte ja kontekstide lõikes ning seejärel vaadata tulemused üle stereotüüpide, tõrjutuse või ebaühtlaste ebaõnnestumismustrite osas. Arendajad peaksid looma ka viise, kuidas kasutajad või meeskonnad saavad kahjulikust käitumisest teatada, sest süsteem võib tunduda üldiselt tugev, kuid teatud gruppe siiski pidevalt ebaõnnestuda.
Milliste turvariskide peale peavad arendajad generatiivse tehisintellekti puhul mõtlema?
Generatiivne tehisintellekt toob kaasa uusi rünnakupindu, sealhulgas kiire süstimise, ohtliku tööriistakasutuse, andmete lekke konteksti kaudu ja automatiseeritud toimingute kuritarvitamise. Arendajad peaksid puhastama ebausaldusväärse sisendi, piirama tööriistade õigusi, piirama failidele ja võrgule juurdepääsu ning jälgima väärkasutuse mustreid. Turvalisus ei puuduta ainult liidest; see kehtib kogu mudeli ümber oleva töövoo kohta.
Miks on genereeriva tehisintellektiga ehitamisel oluline läbipaistvus?
Kasutajad peaksid selgelt teadma, millal tehisintellekt on kaasatud, mida see suudab teha ja kus on selle piirid. Hea läbipaistvus võib hõlmata selliseid silte nagu tehisintellekti loodud või tehisintellekti abil loodud, lihtsaid selgitusi ja selgeid teid inimtoe saamiseks. Selline avameelsus ei nõrgesta toodet; see aitab kasutajatel usaldust kalibreerida ja paremaid otsuseid langetada.
Kes vastutab, kui genereeriva tehisintellekti funktsioon tekitab kahju või läheb valesti?
Arendajad ja tootemeeskonnad vastutavad tulemuse eest endiselt, isegi kui mudel annab vastuse. See tähendab, et juurutamise kinnitamise, intsidentide käsitlemise, tagasipööramise, jälgimise ja kasutajatega suhtlemise eest peaks olema selge vastutus. „Mudel otsustas” ei ole piisav, sest vastutus peab jääma süsteemi kujundanud ja käivitanud inimestele.
Milline näeb välja vastutustundlik generatiivse tehisintellekti arendus pärast turuletoomist?
Vastutustundlik arendus jätkub ka pärast väljalaset jälgimise, tagasiside, ülevaatuse ja parandamise kaudu. Tugevad süsteemid on auditeeritavad, katkestatavad, taastatavad ja loodud varuteedega tehisintellekti rikke korral. Eesmärk ei ole täiuslikkus; eesmärk on luua midagi, mida saab reaalsete probleemide ilmnemisel ohutult uurida, täiustada ja kohandada.
Viited
-
Riiklik Standardite ja Tehnoloogia Instituut (NIST) - NIST GenAI profiil - nvlpubs.nist.gov
-
OWASP - OWASP 10 parimat LLM-i rakendust - owasp.org
-
Infokomissari büroo (ICO) – ICO kaheksa küsimust genereeriva tehisintellekti kohta – ico.org.uk