Lühike vastus: tehisintellekt on läinud liiale, kui seda kasutatakse kõrge panusega otsuste langetamisel, jälitustegevuses või veenmisel ilma kindlate piiride, teadliku nõusoleku ja tegeliku edasikaebamisõiguseta. See ületab piiri uuesti, kui süvavõltsingud ja skaleeritavad pettused muudavad usalduse hasartmänguks. Kui inimesed ei saa aru, et tehisintellektil oli roll, ei saa aru, miks otsus langes nii, nagu see langes, või ei saa sellest loobuda, on asi juba liiale läinud.
Peamised järeldused:
Piirid: Määrake, mida süsteem ei saa teha, eriti suure ebakindluse korral.
Vastutus: tagada, et inimesed saaksid tulemusi karistuste või ajalise surveta tühistada.
Läbipaistvus: andke inimestele teada, millal tehisintellekt on kaasatud ja miks see oma otsustele jõudis.
Vaidlustatavus: Pakkuda kiireid ja toimivaid apellatsioonikanaleid ning selgeid viise vigaste andmete parandamiseks.
Kuritarvituste vastane võitlus: pettuste ja kuritarvituste ohjeldamiseks lisage päritolu, määrapiirangud ja kontrollimeetmed.
"Kas tehisintellekt on liiale läinud?"
Omapärane on see, et piiride ületamine pole alati ilmne. Mõnikord on see vali ja toretsev, nagu süvavõltspettus. ( FTC , FBI ) Teinekord on see vaikne – automatiseeritud otsus, mis lükkab su elu ilma igasuguse selgituseta viltu ja sa ei saa isegi aru, et sind „skooriti“. ( UK ICO , GDPR Art. 22 )
Niisiis… Kas tehisintellekt on liiale läinud? Mõnes kohas jah. Teisalt aga mitte – sest seda kasutatakse ilma ebaseksika, aga hädavajaliku turvapiirdeta, mis panevad tööriistad käituma tööriistadena, mitte ruletiratastena, ja millel on sõbralik kasutajaliides. 🎰🙂 ( NIST AI RMF 1.0 , EU AI Act )
Artiklid, mida võiksite pärast seda lugeda:
🔗 Miks tehisintellekt võib ühiskonnale kahjulik olla
Peamised sotsiaalsed riskid: eelarvamused, töökohad, privaatsus ja võimu koondumine.
🔗 Kas tehisintellekt on keskkonnale kahjulik? Varjatud mõjud
Kuidas koolitus, andmekeskused ja energiakasutus suurendavad heitkoguseid.
🔗 Kas tehisintellekt on hea või halb? Plussid ja miinused
Tasakaalustatud ülevaade eelistest, riskidest ja reaalsetest kompromissidest.
🔗 Miks tehisintellekti peetakse halvaks: tume pool
Uurib väärkasutust, manipuleerimist, turvaohte ja eetilisi probleeme.
Mida inimesed mõtlevad, kui nad ütlevad: "Kas tehisintellekt on liiale läinud?" 😬
Enamik inimesi ei küsi, kas tehisintellekt on „teadvuslik” või „võtab võimu”. Nad osutavad ühele neist:
-
Tehisintellekti kasutatakse seal, kus seda ei tohiks kasutada. (Eriti oluliste otsuste puhul.) ( ELi tehisintellekti seaduse III lisa , isikuandmete kaitse üldmääruse artikkel 22 )
-
Tehisintellekti kasutatakse ilma nõusolekuta. (Teie andmed, teie hääl, teie nägu… üllatus.) ( UK ICO , GDPR Art. 5 )
-
Tehisintellekt on tähelepanu manipuleerimises liiga osavaks muutumas. (Vood + isikupärastamine + automatiseerimine = kleepuv.) ( OECD tehisintellekti põhimõtted )
-
Tehisintellekt muudab tõe valikuliseks. (Süvavõltsingud, võltsarvustused, sünteetilised „eksperdid“.) ( Euroopa Komisjon , FTC , C2PA )
-
Tehisintellekt koondab võimu. (Mõned süsteemid kujundavad seda, mida kõik näevad ja teha saavad.) ( UK CMA )
See ongi küsimuse „Kas tehisintellekt on liiale läinud?“ . See pole üksainus hetk. See on kuhjaga stiimuleid, otseteid ja mõtteviisi „parandame selle hiljem“ – mis, olgem ausad, kipub tähendama „parandame selle pärast seda, kui keegi viga saab“. 😑

Mitte nii salajane tõde: tehisintellekt on multiplikaator, mitte moraalne tegutseja 🔧✨
Tehisintellekt ei ärka üles ja otsusta kahjulik olla. Inimesed ja organisatsioonid sihivad seda. Aga see paljundab seda, millega sa seda toidad:
-
Kasulik kavatsus muutub tohutult kasulikuks (tõlge, ligipääsetavus, kokkuvõte, meditsiiniliste mustrite tuvastamine).
-
Lohakas kavatsus muutub massiliselt lohakaks (mastaabis esinev kallutatus, vigade automatiseerimine).
-
Pahatahtlikkus muutub tohutult halvaks (pettus, ahistamine, propaganda, kellegi teisena esinemine).
See on nagu megafoni andmine väikelapsele. Vahel laulab väikelaps... vahel karjub otse su hinge. Pole just ideaalne metafoor – natuke tobe –, aga mõte on paigas 😅📢.
Mis teeb tehisintellektist igapäevastes oludes hea versiooni? ✅🤝
Tehisintellekti „head versiooni” ei määratle see, kui nutikas see on. Seda määratleb see, kui hästi see käitub surve, ebakindluse ja kiusatuste all (ja inimesed on väga ahvatletud odava automatiseerimise järele). ( NIST AI RMF 1.0 , OECD )
Siin on see, mida ma otsin, kui keegi väidab, et tema tehisintellekti kasutamine on vastutustundlik:
1) Selged piirid
-
Mida on süsteemil lubatud teha?
-
Mida on otseselt keelatud teha?
-
Mis juhtub, kui see pole kindel?
2) Inimese vastutus, mis on tõeline, mitte dekoratiivne
Inimese tehtud tulemuste „ülevaatamine” on oluline ainult siis, kui:
-
nad saavad aru, mida nad arvustavad, ja
-
nad saavad selle tühistada ilma, et neid asjade aeglustamise eest karistataks.
3) Õigel tasemel selgitatavus
Kõik ei vaja matemaatikat. Inimesed vajavad:
-
otsuse peamised põhjused,
-
milliseid andmeid kasutati,
-
Kuidas esitada apellatsioon, parandada või loobuda. ( UK ICO )
4) Mõõdetav jõudlus – sealhulgas rikkerežiimid
Mitte ainult "täpsus", vaid ka:
-
kelle puhul see ebaõnnestub,
-
kui tihti see vaikselt ebaõnnestub,
-
Mis juhtub, kui maailm muutub? ( NIST AI RMF 1.0 )
5) Privaatsus ja nõusolek, mis pole "seadetesse peidetud"
Kui nõusoleku saamiseks on vaja menüüde kaudu aardejahti pidada... siis see pole nõusolek. See on lünk lisasammudega 😐🧾. ( GDPR artikkel 5 , UK ICO )
Võrdlustabel: praktilised viisid tehisintellekti liiale mineku takistamiseks 🧰📊
Allpool on toodud „parimad valikud” selles mõttes, et need on tavalised piirded või operatiivsed tööriistad, mis muudavad tulemusi (mitte ainult meeleolu).
| Tööriist / valik | Sihtrühm | Hind | Miks see toimib |
|---|---|---|---|
| Inimkeskse teabe läbivaatamine ( ELi tehisintellekti seadus ) | Meeskonnad teevad kõrge panusega otsuseid | ££ (ajakulu) | Aeglustab halba automatiseerimist. Samuti võivad inimesed märgata kummalisi ääremärke, mõnikord.. |
| Otsuse vaidlustamise protsess ( GDPR artikkel 22 ) | Kasutajad, keda tehisintellekti otsused mõjutavad | Vabameelne | Lisab õiglase menetluse. Inimesed saavad parandada valesid andmeid – kõlab lihtsalt, sest see ongi lihtne |
| Auditilogid + jälgitavus ( NIST SP 800-53 ) | Vastavus, operatsioonid, turvalisus | £-££ | Võimaldab pärast ebaõnnestumist vastata küsimusele „mis juhtus?“, selle asemel, et õlgu kehitada |
| Mudeli hindamine + eelarvamuste testimine ( NIST AI RMF 1.0 ) | Toote- ja riskimeeskonnad | varieerub palju | Tuvastab ennustatava kahju varakult. Pole ideaalne, aga parem kui arvamine |
| Punase meeskonna testimine ( NIST GenAI profiil ) | Turvalisus ja ohutus | £££ | Simuleerib väärkasutust enne, kui päris ründajad seda teevad. Ebameeldiv, aga seda väärt 😬 |
| Andmete minimeerimine ( UK ICO ) | Kõik, ausalt öeldes | £ | Vähem andmeid = vähem segadust. Samuti vähem rikkumisi, vähem ebamugavaid vestlusi |
| Sisu päritolu signaalid ( C2PA ) | Platvormid, meedia, kasutajad | £-££ | Aitab kontrollida, kas „kas inimene tegi selle?“ – pole küll lollikindel, aga vähendab kaost |
| Kiirusepiirangud + juurdepääsu kontroll ( OWASP ) | Tehisintellekti pakkujad + ettevõtted | £ | Peatab koheselt kuritarvitamise leviku. Nagu takistus pahatahtlikele isikutele |
Jep, laud on veidi ebaühtlane. Selline see elu on. 🙂
Tehisintellekt kõrge panusega otsuste tegemisel: kui see läheb liiale 🏥🏦⚖️
Siin lähevad asjad kiiresti tõsiseks.
Tehisintellekt tervishoius , rahanduses , eluasemes , tööhõives , hariduses , immigratsioonis , kriminaalõiguses – need on süsteemid, kus: ( ELi tehisintellekti seaduse III lisa , FDA )
-
Viga võib kellelegi maksta raha, vabaduse, väärikuse või turvalisuse,
-
ja kannatanul on sageli piiratud jõud vastu võidelda.
Suur risk ei ole see, et „tehisintellekt teeb vigu”. Suur risk on see, et tehisintellekti vigadest saab poliitika . ( NIST AI RMF 1.0 )
Milline „liiga kaugel“ siin välja näeb
-
Automatiseeritud otsused ilma selgituseta: „arvuti ütleb ei.“ ( UK ICO )
-
„Riskiskoori“ käsitleti faktide, mitte oletustena.
-
Inimesed, kes ei saa tulemusi tühistada, sest juhtkond tahab kiirust.
-
Andmed, mis on korrastamata, kallutatud, aegunud või lihtsalt lausa valed.
Mis peaks olema läbiräägimatu
-
Õigus edasikaebamisele (kiire, arusaadav, mitte keeruline). ( GDPR artikkel 22 , UK ICO )
-
Õigus teada , et tehisintellekt oli kaasatud. ( Euroopa Komisjon )
-
Inimesepoolne läbivaatamine oluliste tulemuste osas. ( NIST AI RMF 1.0 )
-
Andmete kvaliteedikontroll – sest prügi sisse, prügi välja on ikka valusalt tõsiasi.
Kui proovite selget joont tõmmata, siis siin on üks:
kui tehisintellekti süsteem suudab kellegi elu oluliselt muuta, vajab see sama tõsidust, mida ootame teistelt autoriteetidelt. Ei mingit "beetatestimist" inimeste peal, kes pole registreerunud. 🚫
Sügavvõltsingud, pettused ja "Ma usaldan oma silmi" aeglane surm 👀🧨
See on see osa, mis muudab igapäevaelu… libedaks.
Kui tehisintellekt suudab genereerida:
-
häälsõnum, mis kõlab nagu teie pereliikme hääl ( FTC , FBI )
-
video avaliku elu tegelasest midagi "ütlemas",
-
võltsarvustuste tulv, mis tunduvad piisavalt autentsed ( FTC )
-
võlts LinkedIni profiil võltsitud töökogemuse ja võltsitud sõpradega..
...see mitte ainult ei võimalda pettusi. See nõrgestab sotsiaalset liimi, mis laseb võõrastel koostööd teha. Ja ühiskond toimib võõraste koostöö abil. 😵💫
„Liiga kaugel” pole ainult võlts sisu
See ongi asümmeetria :
-
Valede genereerimine on odav.
-
Tõe kontrollimine on kallis ja aeglane.
-
Ja enamik inimesi on hõivatud, väsinud ja kerivad veebis ringi.
Mis aitab (natuke)
-
Söötmekandjate päritolumärgid. ( C2PA )
-
Hõõrdumine viraalsuse nimel - aeglustab kohest massilist jagamist.
-
Parem isikusamasuse tuvastamine olulistes valdkondades (rahandus, valitsusasutused).
-
Üksikisikute põhilised harjumused „väljaspool sagedusala kontrollida” (tagasihelistamine, paroodia kasutamine, teise kanali kaudu kinnitamine). ( FTC )
Pole glamuurne. Aga turvavööd ka mitte ja ma olen nendesse isiklikult üsna kiindunud. 🚗
Jälgimisliikumise kiirus: kui tehisintellekt muudab vaikselt kõik anduriks 📷🫥
See ei plahvata nagu sügavvõlts. See lihtsalt levib.
Tehisintellekt teeb lihtsaks:
-
rahvahulkades nägude tuvastamine ( ELi tehisintellekti seadus , NIST FRVT )
-
jälgimisliikumismustrid,
-
järeldavad videost emotsioone (sageli halvasti, aga enesekindlalt) ( Barrett jt, 2019 , ELi tehisintellekti seadus )
-
ennustada „riski” käitumise või naabruskonna õhkkonna põhjal.
Ja isegi kui see on ebatäpne, võib see ikkagi olla kahjulik, sest see võib õigustada sekkumist. Vale ennustus võib ikkagi põhjustada reaalseid tagajärgi.
Ebamugav osa
Tehisintellektil põhinev valve saabub sageli koos ohutuslooga:
-
"See on pettuste ennetamiseks."
-
"See on turvalisuse pärast."
-
"See on kasutajakogemuse jaoks."
Mõnikord on see tõsi. Mõnikord on see ka mugav ettekääne selliste süsteemide ehitamiseks, mida on hiljem väga raske lammutada. Näiteks ühesuunalise ukse paigaldamine oma majja, kuna see tundus tol ajal tõhus. Jällegi, see pole ideaalne metafoor – natuke naeruväärne –, aga sa tunned seda. 🚪😅
Milline „hea“ siin välja näeb
-
Säilitamise ja jagamise osas on ranged piirangud.
-
Tühjenda loobumisvalikud.
-
Kitsad kasutusjuhud.
-
Sõltumatu järelevalve.
-
Palun ärge kasutage karistamiseks ega kontrollimiseks emotsioonide tuvastamist. 🙃 ( ELi tehisintellekti seadus )
Töö, loovus ja vaikne oskuste mahavõtmise probleem 🧑💻🎨
Siin läheb arutelu isiklikuks, sest see puudutab identiteeti.
Tehisintellekt võib muuta inimesed produktiivsemaks. See võib panna inimesi tundma end asendatavana. Mõlemad võivad kehtida samal ajal, samal nädalal. ( OECD , WEF )
Kus see on tõeliselt kasulik
-
Rutiinse teksti koostamine, et inimesed saaksid keskenduda mõtlemisele.
-
Abi korduvate mustrite kodeerimisel.
-
Ligipääsetavuse tööriistad (subtiitrite lisamine, kokkuvõtete tegemine, tõlkimine).
-
Ajurünnak, kui oled ummikus.
Kus see liiale läheb
-
Rollide asendamine ilma üleminekuplaanideta.
-
Tehisintellekti kasutamine toodangu vähendamiseks ja palkade ühtlustamiseks.
-
Loomingulise töö käsitlemine nagu lõputu hulk tasuta treeningandmeid ja siis õlgu kehitamine. ( USA autoriõiguste amet , UK GOV.UK )
-
Juunioride rollide kaotamine – mis kõlab tõhusalt seni, kuni sa taipad, et oled just läbi põlenud redeli, mida tulevased eksperdid peavad ronima.
Oskuste mahavõtmine on peen tegu. Sa ei pane seda iga päev tähele. Siis ühel päeval taipad, et keegi meeskonnas ei mäleta, kuidas asi ilma assistendita töötab. Ja kui assistent eksib, siis eksite teie kõik koos... mis on omamoodi õudusunenägu. 😬
Võimu kontsentratsioon: kes saab vaikimisi sätted määrata? 🏢⚡
Isegi kui tehisintellekt on „neutraalne” (mis ei ole), saab seda kontrolliv isik kujundada:
-
millisele teabele on lihtne ligi pääseda,
-
mida ülendatakse või maetakse,
-
mis keel on lubatud,
-
millist käitumist soodustatakse.
Ja kuna tehisintellekti süsteemide ehitamine ja käitamine võib olla kulukas, kipub võim koonduma. See pole vandenõuteooria. See on majandusteadus tehnoloogilise dressipluusiga. ( UK CMA )
"Liiga kaugel" hetk siin
Kui vaikimisi seadused muutuvad nähtamatuks:
-
Sa ei tea, mida filtreeritakse,
-
sa ei saa loogikat kontrollida,
-
ja te ei saa realistlikult loobuda ilma juurdepääsu tööle, kogukonnale või põhiteenustele kaotamata.
Tervislik ökosüsteem vajab konkurentsi, läbipaistvust ja reaalset kasutajavalikut. Vastasel juhul rendite sisuliselt reaalsust. 😵♂️
Praktiline kontrollnimekiri: kuidas aru saada, kas tehisintellekt läheb sinu maailmas liiale 🧾🔍
Siin on minu poolt kasutatav kõhutunde kontrollnimekiri (ja jah, see on ebatäiuslik):
Kui olete eraisik
-
Ma tunnen ära, millal ma tehisintellektiga suhtlen. ( Euroopa Komisjon )
-
See süsteem sunnib mind üle jagama.
-
Mul oleks okei väljundiga tegeleda, kui see on usutaval moel vale.
-
Kui mind selle abil petetaks, aitaks platvorm mind... või kehitaks õlgu.
Kui oled ettevõte või meeskond
-
Me kasutame tehisintellekti, sest see on väärtuslik või trendikas ja juhtkond on rahutu.
-
Me teame, milliseid andmeid süsteem puudutab.
-
Mõjutatud kasutaja saab tulemuste peale edasi kaevata. ( UK ICO )
-
Inimestel on õigus mudelit alistada.
-
Meil on tehisintellekti tõrgete korral intsidentidele reageerimise plaanid.
-
Jälgime triivi, väärkasutust ja ebatavalisi äärmusjuhtumeid.
Kui vastasid paljudele neist küsimustele eitavalt, ei tähenda see, et oled kuri. See tähendab, et oled tavalises inimlikus olekus, kus „me saatsime selle minema ja lootsime“. Aga lootmine pole kahjuks strateegia. 😅
Lõppsõnad 🧠✅
Niisiis… Kas tehisintellekt on läinud liiga kaugele?
Liiga kaugele on see läinud seal, kus seda kasutatakse ilma vastutuseta , eriti kõrge riskiga otsuste langetamisel, massilise veenmise ja jälgimise puhul. Liiga kaugele on see läinud ka usalduse õõnestamises – sest kui usaldus puruneb, muutub kõik sotsiaalselt kallimaks ja vaenulikumaks. ( NIST AI RMF 1.0 , EU AI Act )
Kuid tehisintellekt ei ole loomupäraselt hukule määratud ega loomupäraselt täiuslik. See on võimas multiplikaator. Küsimus on selles, kas me ehitame kaitsepiirdeid sama agressiivselt kui võimekust.
Kiire kokkuvõte:
-
Tööriistana on tehisintellekt hea.
-
See on ohtlik kui vastutustundetu autoriteet.
-
Kui keegi ei saa edasi kaevata, aru või loobuda, siis sellest hakkab asi liiale minema. 🚦 ( GDPR artikkel 22 , UK ICO )
KKK
Kas tehisintellekt on igapäevaelus liiga kaugele läinud?
Paljudes kohtades on tehisintellekt liiale läinud, sest see on hakanud otsuste langetamisse ja suhtlusse libisema ilma selgete piiride või vastutuseta. Probleem seisneb harva selles, et tehisintellekt on olemas; see on tehisintellekt, mis on vaikselt ja vähese järelevalveta sisse õmmeldud värbamisse, tervishoidu, klienditeenindusse ja uudisvoogudesse. Kui inimesed ei suuda vahet teha, et tegemist on tehisintellektiga, ei saa tulemusi vaidlustada või ei saa sellest loobuda, siis lakkab see tundumast tööriistana ja hakkab tunduma süsteemina.
Kuidas näeb välja „tehisintellekti liialeminek” kõrge panusega otsuste puhul?
Paistab, et tehisintellekti kasutatakse tervishoius, rahanduses, eluasemevaldkonnas, tööhõives, hariduses, immigratsioonis või kriminaalõiguses ilma tugevate piireteta. Põhiprobleem ei ole see, et mudelid teevad vigu, vaid see, et need vead kangestuvad poliitikasse ja neid on raske vaidlustada. „Arvuti ütleb ei” otsused, millel on õhukesed selgitused ja sisukad apellatsioonid puuduvad, on need, mille puhul kahju kiiresti suureneb.
Kuidas ma saan aru, kas automatiseeritud otsus mind mõjutab, ja mida ma saan teha?
Levinud märk on äkiline tulemus, mida te ei suuda seletada: tagasilükkamine, piirang või „riskiskoori” tunne ilma selge põhjuseta. Paljud süsteemid peaksid avalikustama, millal tehisintellektil oli oluline roll, ja teil peaks olema võimalik küsida otsuse peamisi põhjuseid ja vaidlustamise samme. Praktikas küsige inimeselt ülevaatust, parandage valed andmed ja nõudke lihtsat loobumisteed.
Kas tehisintellekt on privaatsuse, nõusoleku ja andmete kasutamisega liiale läinud?
Tihtilugu ongi nii, kui nõusolekust saab aaretejaht ja andmete kogumine laieneb „igaks juhuks“. Artikli põhipunkt on see, et privaatsusel ja nõusolekul pole erilist kaalu, kui need on peidetud keskkonda või peale surutud ebamääraste terminitega. Tervislikum lähenemisviis on andmete minimeerimine: koguge vähem, hoidke vähem ja tehke valikud üheselt mõistetavad, et inimesed hiljem üllatusi ei kogeks.
Kuidas süvavõltsingud ja tehisintellekti pettused muudavad usalduse tähendust internetis?
Nad muudavad tõe valikuliseks, vähendades veenvate võltshäälte, -videote, -arvustuste ja -identiteetide loomise kulusid. Probleem on asümmeetrias: valede genereerimine on odav, samas kui tõe kontrollimine on aeglane ja väsitav. Praktiliste kaitsemeetmete hulka kuuluvad päritolusignaalid meediale, viirusliku jagamise aeglustamine, tugevamad identiteedikontrollid seal, kus see on oluline, ja „väljaspool sagedust kontrollimise“ harjumused, näiteks tagasihelistamine või jagatud koodsõna kasutamine.
Millised on kõige praktilisemad piirded, et tehisintellekt ei läheks liiga kaugele?
Tulemusi muutvate piirete hulka kuuluvad inimeste kaasamine oluliste otsuste ülevaatamiseks, selged apellatsiooniprotsessid ja auditilogid, mis suudavad pärast ebaõnnestumisi vastata küsimusele „mis juhtus?“. Mudeli hindamine ja eelarvamuste testimine aitavad ennustatavat kahju varem tuvastada, samas kui punaste meeskondade testimine simuleerib väärkasutust enne, kui ründajad seda teevad. Kiiruspiirangud ja juurdepääsu kontroll aitavad koheselt vältida kuritarvituste levikut ning andmete minimeerimine vähendab riski üldiselt.
Millal tehisintellektil põhinev valve ületab piiri?
See ületab piiri, kui kõik muutub vaikimisi anduriks: näotuvastus rahvahulkades, liikumismustrite jälgimine või enesekindel „emotsioonide tuvastamine“, mida kasutatakse karistamiseks või kontrollimiseks. Isegi ebatäpsed süsteemid võivad põhjustada tõsist kahju, kui need õigustavad sekkumist või teenuste keelamist. Hea tava näeb välja nagu kitsad kasutusjuhud, ranged säilituspiirangud, sisukad loobumisvõimalused, sõltumatu järelevalve ja kindel „ei“ ebakindlatele emotsioonidel põhinevatele otsustele.
Kas tehisintellekt muudab inimesed produktiivsemaks või vähendab vaikselt tööoskust?
Mõlemad võivad olla tõesed samaaegselt ja see pinge ongi mõte. Tehisintellekt saab aidata rutiinse mustandi, korduvate kodeerimismustrite ja ligipääsetavuse loomisel, vabastades inimesed keskenduma kõrgema taseme mõtlemisele. See läheb liiale, kui asendab rolle ilma üleminekuplaanideta, pigistab palku, käsitleb loomingulist tööd tasuta koolitusandmetena või eemaldab nooremad rollid, mis loovad tulevasi oskusi. Oskuste vähendamine jääb peeneks seni, kuni meeskonnad ei saa enam ilma assistendita toimida.
Viited
-
Riiklik Standardite ja Tehnoloogia Instituut (NIST) - tehisintellekti riskijuhtimise raamistik (AI RMF 1.0) - nist.gov
-
Euroopa Liit – ELi tehisintellekti seadus (määrus (EL) 2024/1689) – Euroopa Liidu Teataja (inglise keeles) – europa.eu
-
Euroopa Komisjon – tehisintellekti reguleeriv raamistik (ELi tehisintellekti seaduse poliitikaleht) – europa.eu
-
ELi tehisintellekti seaduse klienditeenindus – III lisa (kõrge riskiga tehisintellekti süsteemid) – europa.eu
-
Euroopa Liit – usaldusväärse tehisintellekti eeskirjad ELis (ELi tehisintellekti seaduse kokkuvõte) – europa.eu
-
Ühendkuningriigi infokomissari büroo (ICO) – Mis on automatiseeritud isikuotsuste tegemine ja profiilianalüüs? – ico.org.uk
-
Ühendkuningriigi teabevoliniku büroo (ICO) - Mida ütleb Ühendkuningriigi isikuandmete kaitse üldmäärus automatiseeritud otsuste tegemise ja profiilianalüüsi kohta? - ico.org.uk
-
Ühendkuningriigi infokomissari büroo (ICO) – automatiseeritud otsuste tegemine ja profiilide koostamine (juhenduskeskus) – ico.org.uk
-
Ühendkuningriigi teabevoliniku büroo (ICO) - andmete minimeerimine (Ühendkuningriigi isikuandmete kaitse üldmääruse põhimõtete juhend) - ico.org.uk
-
GDPR-info.eu - GDPR artikkel 22 - gdpr-info.eu
-
GDPR-info.eu - GDPR-i artikkel 5 - gdpr-info.eu
-
USA föderaalne kaubanduskomisjon (FTC) - petised kasutavad tehisintellekti oma pere hädaabiskeemide täiustamiseks - ftc.gov
-
USA föderaalne kaubanduskomisjon (FTC) - petised kasutavad teie raha varastamiseks võltsitud hädaolukordi - ftc.gov
-
USA föderaalne kaubanduskomisjon (FTC) - lõplik reegel võltsitud arvustuste ja iseloomustuste keelustamiseks (pressiteade) - ftc.gov
-
Föderaalne Juurdlusbüroo (FBI) - FBI hoiatab tehisintellekti kasutavate küberkurjategijate kasvava ohu eest - fbi.gov
-
Majanduskoostöö ja Arengu Organisatsioon (OECD) - OECD tehisintellekti põhimõtted - oecd.ai
-
OECD – Nõukogu soovitus tehisintellekti kohta (OECD/LEGAL/0449) – oecd.org
-
Euroopa Komisjon – Läbipaistvate tehisintellekti süsteemide suunised ja tegevusjuhend (KKK) – europa.eu
-
Sisu päritolu ja autentsuse koalitsioon (C2PA) - spetsifikatsioonid v2.3 - c2pa.org
-
Ühendkuningriigi konkurentsi- ja turuamet (CMA) – tehisintellekti alusmudelid: esialgne aruanne – gov.uk
-
USA Toidu- ja Ravimiamet (FDA) – tehisintellektil põhinevad meditsiiniseadmed – fda.gov
-
NIST - Infosüsteemide ja organisatsioonide turvalisuse ja privaatsuse kontroll (SP 800-53 Rev. 5) - nist.gov
-
NIST - Generatiivse tehisintellekti profiil (NIST.AI.600-1, ipd) - nist.gov
-
Avatud ülemaailmne rakenduste turbeprojekt (OWASP) - piiramatu ressursikasutus (API turvalisuse 10 parimat, 2023) - owasp.org
-
NIST - Näotuvastusteenuse pakkuja testi (FRVT) demograafia - nist.gov
-
Barrett jt (2019) - Artikkel (PMC) - nih.gov
-
OECD – Tehisintellekti kasutamine töökohal (PDF) – oecd.org
-
Maailma Majandusfoorum (WEF) - Töökohtade tuleviku aruanne 2025 - Kokkuvõte - weforum.org
-
USA autoriõiguse amet - autoriõigus ja tehisintellekt, 3. osa: generatiivse tehisintellekti koolitusaruanne (avaldamiseelne versioon) (PDF) - copyright.gov
-
Ühendkuningriigi valitsus (GOV.UK) - Autoriõigus ja tehisintellekt (konsultatsioon) - gov.uk