Milline on generatiivse tehisintellekti kasutavate arendajate vastutus?

Milline on generatiivse tehisintellekti kasutavate arendajate vastutus?

Lühike vastus: Generatiivset tehisintellekti kasutavad arendajad vastutavad kogu süsteemi, mitte ainult mudeli väljundi eest. Kui tehisintellekt mõjutab otsuseid, koodi, privaatsust või kasutajate usaldust, peavad nad valima ohutud rakendused, kontrollima tulemusi, kaitsma andmeid, vähendama kahju ja tagama, et inimesed saavad vigu üle vaadata, tühistada ja parandada.

Peamised järeldused:

Kontrollimine : käsitle viimistletud väljundeid ebausaldusväärsetena, kuni allikad, testid või inimeste poolt läbi viidud ülevaatus need kinnitab.

Andmekaitse : minimeerige kiirandmeid, eemaldage identifikaatorid ning turvake logid, juurdepääsu kontroll ja tarnijad.

Õiglus : testige erinevate demograafiliste näitajate ja kontekstide lõikes, et tuvastada stereotüüpe ja ebaühtlaseid ebaõnnestumise mustreid.

Läbipaistvus : märgistage tehisintellekti kasutamine selgelt, selgitage selle piire ja pakkuge inimese poolt läbivaatamist või apellatsiooni.

Vastutus : Enne käivitamist määrake selged omanikud juurutamise, intsidentide, jälgimise ja tagasipööramise eest.

Milline on generatiivse tehisintellekti kasutavate arendajate vastutus? Infograafik

Artiklid, mida võiksite pärast seda lugeda:

🔗 Parimad tehisintellekti tööriistad tarkvaraarendajatele: parimad tehisintellektil põhinevad kodeerimisassistendid
Kiiremate ja puhtamate arendusprotsesside loomiseks võrdle parimaid tehisintellektiga kodeerimisassistente.

🔗 10 parimat tehisintellekti tööriista arendajatele tootlikkuse suurendamiseks
Nutikama kodeerimise ja kiiruse tagamiseks mõeldud arendajate tehisintellekti tööriistade edetabel.

🔗 Miks tehisintellekt võib olla ühiskonnale ja usaldusele halb
Selgitab reaalse maailma kahjusid: eelarvamused, privaatsus, töökohad ja väärinfo riskid.

🔗 Kas tehisintellekt on kõrge panusega otsuste tegemisel liiale läinud?
Määratleb, millal tehisintellekt ületab piire: jälgimine, süvavõltsingud, veenmine, nõusoleku puudumine.

Miks on generatiivse tehisintellekti kasutavate arendajate vastutus olulisem, kui inimesed arvavad

Paljud tarkvaravead on tüütud. Nupp ei tööta. Leht laeb aeglaselt. Midagi jookseb kokku ja kõik oigavad.

Generatiivse tehisintellekti probleemid võivad olla erinevad. Need võivad olla peened.

Mudel võib kõlada enesekindlalt, olles samal ajal vale. NIST GenAI profiil See suudab eelarvamusi taasesitada ilma ilmsete hoiatusmärkideta. NIST GenAI profiil See võib hooletu kasutamise korral paljastada tundlikke andmeid. OWASP 10 parimat LLM-rakenduste jaoks ICO kaheksa küsimust generatiivse tehisintellekti kohta See suudab toota toimivat koodi – kuni see mingil sügavalt piinlikul moel tootmises üles ütleb. OWASP 10 parimat LLM-rakenduste jaoks Nagu väga entusiastliku praktikandi palkamine, kes kunagi ei maga ja aeg-ajalt hämmastava enesekindlusega fakte välja mõtleb.

Seepärast generatiivset tehisintellekti kasutavate arendajate vastutus suurem kui lihtsalt rakendamine. Arendajad ei ehita enam ainult loogilisi süsteeme. Nad ehitavad tõenäosuslikke süsteeme, millel on hägused servad, ettearvamatud väljundid ja reaalsed sotsiaalsed tagajärjed. NIST AI RMF

See tähendab, et vastutus hõlmab järgmist:

Tead küll, kuidas see käib – kui tööriist tundub maagiline, siis inimesed lõpetavad selle kahtluse alla seadmise. Arendajad ei saa endale nii lõdvestunud olemist lubada.

Mis teeb generatiivse tehisintellekti kasutava arendaja vastutusest hea versiooni? 🛠️

Hea vastutustundlikkus ei ole performatiivne. See ei ole lihtsalt lahtiütluse lisamine lõppu ja selle eetikaks nimetamine. See ilmneb disainivalikutes, testimisharjumustes ja toote käitumises.

Generatiivset tehisintellekti kasutavate arendajate vastutuse tugev versioon näeb tavaliselt välja selline:

Kui see kõlab palju, siis... see ongi nii. Aga see ongi nii, kui töötad tehnoloogiaga, mis suudab otsuseid, uskumusi ja käitumist ulatuslikult mõjutada. OECD tehisintellekti põhimõtted.

Võrdlustabel – generatiivset tehisintellekti kasutavate arendajate põhivastutus lühidalt 📋

Vastutusala Keda see mõjutab Igapäevane arendaja praktika Miks see on oluline
Täpsus ja kontrollimine kasutajad, meeskonnad, kliendid Vaadake väljundid üle, lisage valideerimiskihid, testige servajuhtumeid Tehisintellekt võib olla sujuv ja ikkagi metsikult ekslik – mis on ligikaudne kombinatsioon (NIST GenAI profiil)
Privaatsuse kaitse kasutajad, kliendid, sisemine personal Minimeeri tundlike andmete kasutamist, puhasta viipasid, kontrolli logisid Kui privaatsed andmed lekivad, on hambapasta tuubist väljas 😬 ICO kaheksa küsimust generatiivse tehisintellekti kohta: OWASP, 10 parimat LLM-rakenduste jaoks
Eelarvamus ja õiglus alaesindatud rühmad, tegelikult kõik kasutajad Auditeeri väljundeid, testi erinevaid sisendeid, häälesta kaitsemeetmeid Kahju ei ole alati vali – mõnikord on see süstemaatiline ja vaikne. NIST GenAI profiili ICO juhised tehisintellekti ja andmekaitse kohta.
Turvalisus ettevõtte süsteemid, kasutajad Piira mudelile juurdepääsu, kaitse kohese süstimise eest, riskantsed toimingud liivakastis Üks nutikas ärakasutamine võib usalduse kiiresti hävitada OWASP Top 10 LLM rakenduste jaoks NCSC tehisintellekti ja küberturvalisuse kohta
Läbipaistvus lõppkasutajad, regulaatorid, tugimeeskonnad Märgistage tehisintellekti käitumine selgelt, selgitage piiranguid ja dokumenteerige kasutamist Inimesed väärivad teada, millal masin aitab. OECD tehisintellekti põhimõtted ja tehisintellekti loodud sisu märgistamise ja märgistamise tegevusjuhend.
Vastutus tooteomanikud, jurist, arendusmeeskonnad Määrake omandiõigus, intsidentide käsitlemine ja eskalatsiooniteed „Tehisintellekt tegi seda” ei ole täiskasvanulik vastus. OECD tehisintellekti põhimõtted.
Usaldusväärsus kõik, kes toodet puudutavad Jälgige tõrkeid, määrake usaldusnivid, looge varuloogika Mudelid triivivad, ebaõnnestuvad ootamatutel viisidel ja aeg-ajalt esineb neil dramaatiline väike episood. NIST AI RMF NCSC turvalise tehisintellekti juhised
Kasutaja heaolu haavatavate kasutajate, eriti Väldi manipuleerivat disaini, piira kahjulikke väljundeid, vaata üle kõrge riskiga kasutusjuhud See, et midagi saab genereerida, ei tähenda, et see peaks olema OECD tehisintellekti põhimõtete ja NIST tehisintellekti RMF-i

Veidi ebaühtlane tabel, muidugi, aga see sobib teemaga. Tegelik vastutus on samuti ebaühtlane.

Vastutus algab juba enne esimest vihjet – õige kasutusjuhtumi valimine 🎯

Üks arendajate suurimaid kohustusi on otsustada, kas generatiivset tehisintellekti üldse kasutada . NIST AI RMF

See kõlab ilmselgelt, aga seda jäetakse kogu aeg vahele. Meeskonnad näevad mudelit, satuvad elevile ja hakkavad seda sundima töövoogudesse, mida reeglid, otsing või tavaline tarkvaraloogika paremini lahendaksid. Mitte iga probleem ei vaja keelemudelit. Mõned probleemid vajavad andmebaasi ja vaikset pärastlõunat.

Enne ehitamist peaksid arendajad küsima:

Vastutustundlik arendaja ei küsi lihtsalt: „Kas me saame seda ehitada?“. Ta küsib: „Kas seda peaks nii ehitama?“ . NIST AI RMF

See küsimus iseenesest hoiab ära palju läikivat jama.

Täpsus on kohustus, mitte boonus ✅

Olgem ausad – üks generatiivse tehisintellekti suurimaid lõkse on kõneosavus tõega ekslikult eksitada. Mudelid annavad sageli vastuseid, mis kõlavad viimistletult, struktureeritult ja sügavalt veenvalt. Mis on tore, kuni sisu muutub konfidentsiaalsusse mähitud jamaks. NIST GenAI profiil

Seega generatiivset tehisintellekti kasutavate arendajate vastutus ka verifitseerimiseks ehitamist.

See tähendab:

See on väga oluline sellistes valdkondades nagu:

  • tervishoid

  • rahandus

  • juriidilised töövood

  • haridus

  • klienditugi

  • ettevõtte automatiseerimine

  • koodi genereerimine

Näiteks genereeritud kood võib tunduda korralik, varjates samal ajal turvaauke või loogikavigu. Arendaja, kes seda pimesi kopeerib, ei ole efektiivne – ta lihtsalt annab riski ilusamas vormingus edasi. OWASP 10 parimat LLM-rakenduste jaoks NCSC tehisintellekti ja küberturvalisuse alal.

Mudel saab abiks olla. Tulemus kuulub endiselt arendajale. OECD tehisintellekti põhimõtted

Privaatsus ja andmekaitse ei ole läbiräägitavad 🔐

Siin lähevad asjad kohe tõsiseks. Generatiivsed tehisintellekti süsteemid tuginevad sageli viipadele, logidele, kontekstiakendele, mälukihtidele, analüütikale ja kolmanda osapoole infrastruktuurile. See loob palju võimalusi tundlike andmete lekkimiseks, säilitamiseks või taaskasutamiseks viisil, mida kasutajad kunagi ei oodanud. ICO kaheksa küsimust generatiivse tehisintellekti kohta OWASP Top 10 LLM-rakendustele

Arendajatel on kohustus kaitsta:

  • isikuandmed

  • finantsdokumendid

  • meditsiinilised andmed

  • ettevõtte siseandmed

  • ärisaladused

  • autentimismärgid

  • kliendisuhtlus

Vastutustundlikud tavad hõlmavad järgmist:

See on üks neist valdkondadest, kus „me unustasime sellele mõelda” pole tühine viga. See on usaldust lõhkuv ebaõnnestumine.

Ja kui usaldus on kord purunenud, levib see nagu maha kukkunud klaas. Võib-olla mitte just kõige kenam metafoor, aga saate aru.

Eelarvamus, õiglus ja esindatus – vaiksemad kohustused ⚖️

Generatiivse tehisintellekti puhul on eelarvamused harva koomiksipõhised kaabakad. Tavaliselt on need veelgi libedamad. Mudel võib luua stereotüüpseid ametijuhendeid, ebaühtlaseid modereerimisotsuseid, ühekülgseid soovitusi või kultuuriliselt kitsaid eeldusi ilma ilmseid häirekellasid käivitamata. NIST GenAI profiil

Seetõttu generatiivset tehisintellekti kasutavate arendajate vastutus aktiivset õigluse tagamist.

Arendajad peaksid:

Süsteem võib tunduda üldiselt hästi töötavat, kuid teenindada mõnda kasutajat halvemini kui teisi. See ei ole vastuvõetav ainult seetõttu, et keskmine jõudlus armatuurlaual hea välja näeb. ICO juhised tehisintellekti ja andmekaitse kohta NIST GenAI profiil

Ja jah, õiglus on keerulisem kui korralik kontrollnimekiri. Selles on otsustusvõimet. Konteksti. Kompromisse. Ka ebamugavustunnet. Aga see ei võta vastutust ära – see kinnitab seda. ICO juhised tehisintellekti ja andmekaitse kohta.

Turvalisus on nüüd osaliselt kiire disain, osaliselt inseneridistsipliin 🧱

Generatiivse tehisintellekti turvalisus on omaette omapärane asi. Traditsiooniline rakenduste turvalisus on muidugi endiselt oluline, kuid tehisintellekti süsteemid lisavad ebatavalisi rünnakupindu: kiire süstimine, kaudne kiire manipuleerimine, ohtlike tööriistade kasutamine, andmete väljavool konteksti kaudu ja mudeli väärkasutamine automatiseeritud töövoogude kaudu. OWASP 10 parimat LLM-rakenduste jaoks NCSC tehisintellekti ja küberturvalisuse alal

Arendajad vastutavad kogu süsteemi, mitte ainult liidese turvamise eest. NCSC turvalise tehisintellekti juhised

Peamised kohustused hõlmavad siin järgmist:

Üks ebamugav tõde on see, et kasutajad – ja ründajad – proovivad kindlasti asju, mida arendajad ei oodanud. Mõned uudishimust, mõned pahatahtlikkusest, mõned seetõttu, et nad klõpsasid kell 2 öösel valele asjale. See juhtub.

Generatiivse tehisintellekti turvalisus ei ole niivõrd müüri ehitamine kuivõrd väga jutuka väravavahi haldamine, keda vahel sõnastus petta laseb.

Läbipaistvus ja kasutaja nõusolek on olulisemad kui toretsev kasutajakogemus 🗣️

Kui kasutajad tehisintellektiga suhtlevad, peaksid nad seda teadma. OECD tehisintellekti põhimõtete tegevusjuhend tehisintellekti loodud sisu märgistamise ja märgistamise kohta

Mitte ebamääraselt. Mitte sõnadesse peidetud. Selgelt.

Generatiivset tehisintellekti kasutavate arendajate põhikohustus on tagada, et kasutajad mõistaksid järgmist:

Läbipaistvus ei seisne kasutajate hirmutamises. See seisneb nende austamises.

Hea läbipaistvus võib hõlmata järgmist:

Paljud tootemeeskonnad muretsevad, et ausus muudab funktsiooni vähem maagiliseks. Võib-olla. Aga vale kindlus on hullem. Sujuv liides, mis varjab riski, on põhimõtteliselt lihvitud segadus.

Arendajad jäävad vastutavaks – isegi kui mudel „otsustab“ 👀

See osa on väga oluline. Vastutust ei saa delegeerida mudeli müüjale, mudeli kaardile, küsimuse mallile ega masinõppe salapärasele atmosfäärile. OECD tehisintellekti põhimõtted , NIST tehisintellekti RMF.

Arendajad vastutavad endiselt. OECD tehisintellekti põhimõtted

See tähendab, et meeskonnas peaks keegi omama:

Sellistele küsimustele nagu: peaks olema selged vastused

Ilma omandiõiguseta muutub vastutus uduseks. Kõik eeldavad, et keegi teine ​​tegeleb sellega... ja siis ei tee seda keegi.

Tegelikult on see muster tehisintellektist vanem. Tehisintellekt muudab selle lihtsalt ohtlikumaks.

Vastutustundlikud arendajad ehitavad paranduste, mitte täiuslikkuse nimel 🔄

Ja siin ongi väike konks: tehisintellekti vastutustundlik arendamine ei seisne teesklemises, et süsteem on täiuslik. See seisneb eeldamises, et see mingil moel ebaõnnestub, ja selle reaalsuse järgi disainimises. NIST AI RMF

See tähendab toodete ehitamist, mis on:

Nii näeb küpsus välja. Mitte läikivad demod. Mitte hingetuks võtvad turundustekstid. Päris süsteemid, millel on turvapiirded, logid, vastutus ja piisavalt alandlikkust, et tunnistada, et masin pole võlur. NCSC turvalise tehisintellekti juhised, OECD tehisintellekti põhimõtted.

Sest see pole nii. See on tööriist. Võimas, jah. Aga ikkagi tööriist.

Lõppmõtisklus arendajate vastutuse üle, kasutades generatiivset tehisintellekti 🌍

Milline on siis arendajate vastutus generatiivse tehisintellekti kasutamisel ?

See tähendab hoolikat ehitamist. Süsteemi kasulike ja kahjulike külgede kahtluse alla seadmist. Privaatsuse kaitsmist. Eelarvamuste testimist. Väljundite kontrollimist. Töövoo turvamist. Kasutajatega läbipaistvuse tagamist. Inimeste sisulise kontrolli säilitamist. Vastutuse kandmist, kui asjad valesti lähevad. NIST AI, RMF, OECD tehisintellekti põhimõtted.

See võib tunduda raske – ja nii see ongi. Aga see eristabki läbimõeldud arendust hoolimatust automatiseerimisest.

Parimad generatiivse tehisintellekti kasutavad arendajad ei ole need, kes panevad mudeli kõige rohkem trikke tegema. Nemad on need, kes mõistavad nende trikkide tagajärgi ja disainivad vastavalt. Nad teavad, et kiirus on oluline, aga usaldus on tegelik toode. Kummalisel kombel on see vanamoodne idee endiselt aktuaalne. NIST AI RMF

Lõppkokkuvõttes ei ole vastutus innovatsiooni takistuseks. See on see, mis hoiab ära innovatsiooni muutumise kalliks ja turbulentseks laialivalgumiseks, millel on lihvitud liides ja enesekindlusprobleem 😬✨

Ja võib-olla on see kõige lihtsam versioon.

Ehita julgelt, muidugi – aga ehita nii, nagu inimesi see mõjutaks, sest see mõjutabki neid. OECD tehisintellekti põhimõtted

KKK

Milline on generatiivse tehisintellekti praktikas kasutavate arendajate vastutus?

Generatiivset tehisintellekti kasutavate arendajate vastutus ulatub kaugemale funktsioonide kiirest pakkumisest. See hõlmab õige kasutusjuhtumi valimist, väljundite testimist, privaatsuse kaitsmist, kahjuliku käitumise vähendamist ja süsteemi kasutajatele arusaadavaks tegemist. Praktikas jäävad arendajad vastutavaks tööriista kujundamise, jälgimise, parandamise ja haldamise eest rikke korral.

Miks vajab generatiivne tehisintellekt rohkem arendaja vastutust kui tavaline tarkvara?

Traditsioonilised vead on sageli ilmsed, kuid genereeriva tehisintellekti tõrked võivad tunduda viimistletud, olles samal ajal valed, kallutatud või riskantsed. See muudab probleemid raskemini märgatavaks ja kasutajatel on lihtsam neid kogemata usaldada. Arendajad töötavad tõenäosuslike süsteemidega, seega hõlmab vastutus ebakindlusega toimetulekut, kahju piiramist ja ettearvamatute tulemustega toimetulekut enne turuletoomist.

Kuidas arendajad teavad, millal generatiivset tehisintellekti ei tohiks kasutada?

Levinud lähtepunkt on küsida, kas ülesanne on avatud või on seda parem lahendada reeglite, otsingu või standardse tarkvaraloogika abil. Arendajad peaksid kaaluma ka seda, kui palju kahju vale vastus võib tekitada ja kas inimene suudab tulemusi realistlikult üle vaadata. Vastutustundlik kasutamine tähendab mõnikord otsust mitte kasutada generatiivset tehisintellekti üldse.

Kuidas saavad arendajad generatiivsetes tehisintellekti süsteemides hallutsinatsioone ja valesid vastuseid vähendada?

Täpsus tuleb sisse kavandada, mitte eeldada. Paljudes torujuhtmetes tähendab see väljundite maandamist usaldusväärsetesse allikatesse, genereeritud teksti eraldamist kontrollitud faktidest ja ülevaatusprotsesside kasutamist suurema riskiga ülesannete jaoks. Arendajad peaksid testima ka süsteemi segadusse ajavaid või eksitavaid juhiseid, eriti sellistes valdkondades nagu kood, tugi, rahandus, haridus ja tervishoid.

Milline on genereerivat tehisintellekti kasutavate arendajate vastutus privaatsuse ja tundlike andmete eest?

Generatiivset tehisintellekti kasutavate arendajate vastutus hõlmab mudelisse sisenevate andmete minimeerimist ning päringute, logide ja väljundite käsitlemist tundlikena. Arendajad peaksid võimaluse korral eemaldama identifikaatorid, piirama säilitamist, kontrollima juurdepääsu ja hoolikalt üle vaatama tarnija seaded. Kasutajad peaksid ka aru saama, kuidas nende andmeid käideldakse, selle asemel, et riske hiljem avastada.

Kuidas peaksid arendajad käsitlema generatiivse tehisintellekti väljundite eelarvamusi ja õiglust?

Eelarvamustega töötamine nõuab aktiivset hindamist, mitte oletusi. Praktiline lähenemisviis on testida ülesandeid erinevate demograafiliste rühmade, keelte ja kontekstide lõikes ning seejärel vaadata tulemused üle stereotüüpide, tõrjutuse või ebaühtlaste ebaõnnestumismustrite osas. Arendajad peaksid looma ka viise, kuidas kasutajad või meeskonnad saavad kahjulikust käitumisest teatada, sest süsteem võib tunduda üldiselt tugev, kuid teatud gruppe siiski pidevalt ebaõnnestuda.

Milliste turvariskide peale peavad arendajad generatiivse tehisintellekti puhul mõtlema?

Generatiivne tehisintellekt toob kaasa uusi rünnakupindu, sealhulgas kiire süstimise, ohtliku tööriistakasutuse, andmete lekke konteksti kaudu ja automatiseeritud toimingute kuritarvitamise. Arendajad peaksid puhastama ebausaldusväärse sisendi, piirama tööriistade õigusi, piirama failidele ja võrgule juurdepääsu ning jälgima väärkasutuse mustreid. Turvalisus ei puuduta ainult liidest; see kehtib kogu mudeli ümber oleva töövoo kohta.

Miks on genereeriva tehisintellektiga ehitamisel oluline läbipaistvus?

Kasutajad peaksid selgelt teadma, millal tehisintellekt on kaasatud, mida see suudab teha ja kus on selle piirid. Hea läbipaistvus võib hõlmata selliseid silte nagu tehisintellekti loodud või tehisintellekti abil loodud, lihtsaid selgitusi ja selgeid teid inimtoe saamiseks. Selline avameelsus ei nõrgesta toodet; see aitab kasutajatel usaldust kalibreerida ja paremaid otsuseid langetada.

Kes vastutab, kui genereeriva tehisintellekti funktsioon tekitab kahju või läheb valesti?

Arendajad ja tootemeeskonnad vastutavad tulemuse eest endiselt, isegi kui mudel annab vastuse. See tähendab, et juurutamise kinnitamise, intsidentide käsitlemise, tagasipööramise, jälgimise ja kasutajatega suhtlemise eest peaks olema selge vastutus. „Mudel otsustas” ei ole piisav, sest vastutus peab jääma süsteemi kujundanud ja käivitanud inimestele.

Milline näeb välja vastutustundlik generatiivse tehisintellekti arendus pärast turuletoomist?

Vastutustundlik arendus jätkub ka pärast väljalaset jälgimise, tagasiside, ülevaatuse ja parandamise kaudu. Tugevad süsteemid on auditeeritavad, katkestatavad, taastatavad ja loodud varuteedega tehisintellekti rikke korral. Eesmärk ei ole täiuslikkus; eesmärk on luua midagi, mida saab reaalsete probleemide ilmnemisel ohutult uurida, täiustada ja kohandada.

Viited

  1. Riiklik Standardite ja Tehnoloogia Instituut (NIST) - NIST GenAI profiil - nvlpubs.nist.gov

  2. OWASP - OWASP 10 parimat LLM-i rakendust - owasp.org

  3. Infokomissari büroo (ICO)ICO kaheksa küsimust genereeriva tehisintellekti kohtaico.org.uk

Leia uusim tehisintellekt ametlikust tehisintellekti abilise poest

Meist

Tagasi blogisse