Kas tehisintellekt on liiga kaugele läinud?

Kas tehisintellekt on liiale läinud?

Lühike vastus: tehisintellekt on läinud liiale, kui seda kasutatakse kõrge panusega otsuste langetamisel, jälitustegevuses või veenmisel ilma kindlate piiride, teadliku nõusoleku ja tegeliku edasikaebamisõiguseta. See ületab piiri uuesti, kui süvavõltsingud ja skaleeritavad pettused muudavad usalduse hasartmänguks. Kui inimesed ei saa aru, et tehisintellektil oli roll, ei saa aru, miks otsus langes nii, nagu see langes, või ei saa sellest loobuda, on asi juba liiale läinud.

Peamised järeldused:

Piirid: Määrake, mida süsteem ei saa teha, eriti suure ebakindluse korral.

Vastutus: tagada, et inimesed saaksid tulemusi karistuste või ajalise surveta tühistada.

Läbipaistvus: andke inimestele teada, millal tehisintellekt on kaasatud ja miks see oma otsustele jõudis.

Vaidlustatavus: Pakkuda kiireid ja toimivaid apellatsioonikanaleid ning selgeid viise vigaste andmete parandamiseks.

Kuritarvituste vastane võitlus: pettuste ja kuritarvituste ohjeldamiseks lisage päritolu, määrapiirangud ja kontrollimeetmed.

"Kas tehisintellekt on liiale läinud?"

Omapärane on see, et piiride ületamine pole alati ilmne. Mõnikord on see vali ja toretsev, nagu süvavõltspettus. ( FTC , FBI ) ​​Teinekord on see vaikne – automatiseeritud otsus, mis lükkab su elu ilma igasuguse selgituseta viltu ja sa ei saa isegi aru, et sind „skooriti“. ( UK ICO , GDPR Art. 22 )

Niisiis… Kas tehisintellekt on liiale läinud? Mõnes kohas jah. Teisalt aga mitte – sest seda kasutatakse ilma ebaseksika, aga hädavajaliku turvapiirdeta, mis panevad tööriistad käituma tööriistadena, mitte ruletiratastena, ja millel on sõbralik kasutajaliides. 🎰🙂 ( NIST AI RMF 1.0 , EU AI Act )

Artiklid, mida võiksite pärast seda lugeda:

🔗 Miks tehisintellekt võib ühiskonnale kahjulik olla
Peamised sotsiaalsed riskid: eelarvamused, töökohad, privaatsus ja võimu koondumine.

🔗 Kas tehisintellekt on keskkonnale kahjulik? Varjatud mõjud
Kuidas koolitus, andmekeskused ja energiakasutus suurendavad heitkoguseid.

🔗 Kas tehisintellekt on hea või halb? Plussid ja miinused
Tasakaalustatud ülevaade eelistest, riskidest ja reaalsetest kompromissidest.

🔗 Miks tehisintellekti peetakse halvaks: tume pool
Uurib väärkasutust, manipuleerimist, turvaohte ja eetilisi probleeme.


Mida inimesed mõtlevad, kui nad ütlevad: "Kas tehisintellekt on liiale läinud?" 😬

Enamik inimesi ei küsi, kas tehisintellekt on „teadvuslik” või „võtab võimu”. Nad osutavad ühele neist:

See ongi küsimuse „Kas tehisintellekt on liiale läinud?“ . See pole üksainus hetk. See on kuhjaga stiimuleid, otseteid ja mõtteviisi „parandame selle hiljem“ – mis, olgem ausad, kipub tähendama „parandame selle pärast seda, kui keegi viga saab“. 😑

Kas tehisintellekt on infograafikul liiga kaugele läinud?

Mitte nii salajane tõde: tehisintellekt on multiplikaator, mitte moraalne tegutseja 🔧✨

Tehisintellekt ei ärka üles ja otsusta kahjulik olla. Inimesed ja organisatsioonid sihivad seda. Aga see paljundab seda, millega sa seda toidad:

  • Kasulik kavatsus muutub tohutult kasulikuks (tõlge, ligipääsetavus, kokkuvõte, meditsiiniliste mustrite tuvastamine).

  • Lohakas kavatsus muutub massiliselt lohakaks (mastaabis esinev kallutatus, vigade automatiseerimine).

  • Pahatahtlikkus muutub tohutult halvaks (pettus, ahistamine, propaganda, kellegi teisena esinemine).

See on nagu megafoni andmine väikelapsele. Vahel laulab väikelaps... vahel karjub otse su hinge. Pole just ideaalne metafoor – natuke tobe –, aga mõte on paigas 😅📢.


Mis teeb tehisintellektist igapäevastes oludes hea versiooni? ✅🤝

Tehisintellekti „head versiooni” ei määratle see, kui nutikas see on. Seda määratleb see, kui hästi see käitub surve, ebakindluse ja kiusatuste all (ja inimesed on väga ahvatletud odava automatiseerimise järele). ( NIST AI RMF 1.0 , OECD )

Siin on see, mida ma otsin, kui keegi väidab, et tema tehisintellekti kasutamine on vastutustundlik:

1) Selged piirid

  • Mida on süsteemil lubatud teha?

  • Mida on otseselt keelatud teha?

  • Mis juhtub, kui see pole kindel?

2) Inimese vastutus, mis on tõeline, mitte dekoratiivne

Inimese tehtud tulemuste „ülevaatamine” on oluline ainult siis, kui:

  • nad saavad aru, mida nad arvustavad, ja

  • nad saavad selle tühistada ilma, et neid asjade aeglustamise eest karistataks.

3) Õigel tasemel selgitatavus

Kõik ei vaja matemaatikat. Inimesed vajavad:

  • otsuse peamised põhjused,

  • milliseid andmeid kasutati,

  • Kuidas esitada apellatsioon, parandada või loobuda. ( UK ICO )

4) Mõõdetav jõudlus – sealhulgas rikkerežiimid

Mitte ainult "täpsus", vaid ka:

  • kelle puhul see ebaõnnestub,

  • kui tihti see vaikselt ebaõnnestub,

  • Mis juhtub, kui maailm muutub? ( NIST AI RMF 1.0 )

5) Privaatsus ja nõusolek, mis pole "seadetesse peidetud"

Kui nõusoleku saamiseks on vaja menüüde kaudu aardejahti pidada... siis see pole nõusolek. See on lünk lisasammudega 😐🧾. ( GDPR artikkel 5 , UK ICO )


Võrdlustabel: praktilised viisid tehisintellekti liiale mineku takistamiseks 🧰📊

Allpool on toodud „parimad valikud” selles mõttes, et need on tavalised piirded või operatiivsed tööriistad, mis muudavad tulemusi (mitte ainult meeleolu).

Tööriist / valik Sihtrühm Hind Miks see toimib
Inimkeskse teabe läbivaatamine ( ELi tehisintellekti seadus ) Meeskonnad teevad kõrge panusega otsuseid ££ (ajakulu) Aeglustab halba automatiseerimist. Samuti võivad inimesed märgata kummalisi ääremärke, mõnikord..
Otsuse vaidlustamise protsess ( GDPR artikkel 22 ) Kasutajad, keda tehisintellekti otsused mõjutavad Vabameelne Lisab õiglase menetluse. Inimesed saavad parandada valesid andmeid – kõlab lihtsalt, sest see ongi lihtne
Auditilogid + jälgitavus ( NIST SP 800-53 ) Vastavus, operatsioonid, turvalisus £-££ Võimaldab pärast ebaõnnestumist vastata küsimusele „mis juhtus?“, selle asemel, et õlgu kehitada
Mudeli hindamine + eelarvamuste testimine ( NIST AI RMF 1.0 ) Toote- ja riskimeeskonnad varieerub palju Tuvastab ennustatava kahju varakult. Pole ideaalne, aga parem kui arvamine
Punase meeskonna testimine ( NIST GenAI profiil ) Turvalisus ja ohutus £££ Simuleerib väärkasutust enne, kui päris ründajad seda teevad. Ebameeldiv, aga seda väärt 😬
Andmete minimeerimine ( UK ICO ) Kõik, ausalt öeldes £ Vähem andmeid = vähem segadust. Samuti vähem rikkumisi, vähem ebamugavaid vestlusi
Sisu päritolu signaalid ( C2PA ) Platvormid, meedia, kasutajad £-££ Aitab kontrollida, kas „kas inimene tegi selle?“ – pole küll lollikindel, aga vähendab kaost
Kiirusepiirangud + juurdepääsu kontroll ( OWASP ) Tehisintellekti pakkujad + ettevõtted £ Peatab koheselt kuritarvitamise leviku. Nagu takistus pahatahtlikele isikutele

Jep, laud on veidi ebaühtlane. Selline see elu on. 🙂


Tehisintellekt kõrge panusega otsuste tegemisel: kui see läheb liiale 🏥🏦⚖️

Siin lähevad asjad kiiresti tõsiseks.

Tehisintellekt tervishoius , rahanduses , eluasemes , tööhõives , hariduses , immigratsioonis , kriminaalõiguses – need on süsteemid, kus: ( ELi tehisintellekti seaduse III lisa , FDA )

  • Viga võib kellelegi maksta raha, vabaduse, väärikuse või turvalisuse,

  • ja kannatanul on sageli piiratud jõud vastu võidelda.

Suur risk ei ole see, et „tehisintellekt teeb vigu”. Suur risk on see, et tehisintellekti vigadest saab poliitika . ( NIST AI RMF 1.0 )

Milline „liiga kaugel“ siin välja näeb

  • Automatiseeritud otsused ilma selgituseta: „arvuti ütleb ei.“ ( UK ICO )

  • „Riskiskoori“ käsitleti faktide, mitte oletustena.

  • Inimesed, kes ei saa tulemusi tühistada, sest juhtkond tahab kiirust.

  • Andmed, mis on korrastamata, kallutatud, aegunud või lihtsalt lausa valed.

Mis peaks olema läbiräägimatu

  • Õigus edasikaebamisele (kiire, arusaadav, mitte keeruline). ( GDPR artikkel 22 , UK ICO )

  • Õigus teada , et tehisintellekt oli kaasatud. ( Euroopa Komisjon )

  • Inimesepoolne läbivaatamine oluliste tulemuste osas. ( NIST AI RMF 1.0 )

  • Andmete kvaliteedikontroll – sest prügi sisse, prügi välja on ikka valusalt tõsiasi.

Kui proovite selget joont tõmmata, siis siin on üks:
kui tehisintellekti süsteem suudab kellegi elu oluliselt muuta, vajab see sama tõsidust, mida ootame teistelt autoriteetidelt. Ei mingit "beetatestimist" inimeste peal, kes pole registreerunud. 🚫


Sügavvõltsingud, pettused ja "Ma usaldan oma silmi" aeglane surm 👀🧨

See on see osa, mis muudab igapäevaelu… libedaks.

Kui tehisintellekt suudab genereerida:

  • häälsõnum, mis kõlab nagu teie pereliikme hääl ( FTC , FBI )

  • video avaliku elu tegelasest midagi "ütlemas",

  • võltsarvustuste tulv, mis tunduvad piisavalt autentsed ( FTC )

  • võlts LinkedIni profiil võltsitud töökogemuse ja võltsitud sõpradega..

...see mitte ainult ei võimalda pettusi. See nõrgestab sotsiaalset liimi, mis laseb võõrastel koostööd teha. Ja ühiskond toimib võõraste koostöö abil. 😵💫

„Liiga kaugel” pole ainult võlts sisu

See ongi asümmeetria :

  • Valede genereerimine on odav.

  • Tõe kontrollimine on kallis ja aeglane.

  • Ja enamik inimesi on hõivatud, väsinud ja kerivad veebis ringi.

Mis aitab (natuke)

  • Söötmekandjate päritolumärgid. ( C2PA )

  • Hõõrdumine viraalsuse nimel - aeglustab kohest massilist jagamist.

  • Parem isikusamasuse tuvastamine olulistes valdkondades (rahandus, valitsusasutused).

  • Üksikisikute põhilised harjumused „väljaspool sagedusala kontrollida” (tagasihelistamine, paroodia kasutamine, teise kanali kaudu kinnitamine). ( FTC )

Pole glamuurne. Aga turvavööd ka mitte ja ma olen nendesse isiklikult üsna kiindunud. 🚗


Jälgimisliikumise kiirus: kui tehisintellekt muudab vaikselt kõik anduriks 📷🫥

See ei plahvata nagu sügavvõlts. See lihtsalt levib.

Tehisintellekt teeb lihtsaks:

Ja isegi kui see on ebatäpne, võib see ikkagi olla kahjulik, sest see võib õigustada sekkumist. Vale ennustus võib ikkagi põhjustada reaalseid tagajärgi.

Ebamugav osa

Tehisintellektil põhinev valve saabub sageli koos ohutuslooga:

  • "See on pettuste ennetamiseks."

  • "See on turvalisuse pärast."

  • "See on kasutajakogemuse jaoks."

Mõnikord on see tõsi. Mõnikord on see ka mugav ettekääne selliste süsteemide ehitamiseks, mida on hiljem väga raske lammutada. Näiteks ühesuunalise ukse paigaldamine oma majja, kuna see tundus tol ajal tõhus. Jällegi, see pole ideaalne metafoor – natuke naeruväärne –, aga sa tunned seda. 🚪😅

Milline „hea“ siin välja näeb

  • Säilitamise ja jagamise osas on ranged piirangud.

  • Tühjenda loobumisvalikud.

  • Kitsad kasutusjuhud.

  • Sõltumatu järelevalve.

  • Palun ärge kasutage karistamiseks ega kontrollimiseks emotsioonide tuvastamist. 🙃 ( ELi tehisintellekti seadus )


Töö, loovus ja vaikne oskuste mahavõtmise probleem 🧑💻🎨

Siin läheb arutelu isiklikuks, sest see puudutab identiteeti.

Tehisintellekt võib muuta inimesed produktiivsemaks. See võib panna inimesi tundma end asendatavana. Mõlemad võivad kehtida samal ajal, samal nädalal. ( OECD , WEF )

Kus see on tõeliselt kasulik

  • Rutiinse teksti koostamine, et inimesed saaksid keskenduda mõtlemisele.

  • Abi korduvate mustrite kodeerimisel.

  • Ligipääsetavuse tööriistad (subtiitrite lisamine, kokkuvõtete tegemine, tõlkimine).

  • Ajurünnak, kui oled ummikus.

Kus see liiale läheb

  • Rollide asendamine ilma üleminekuplaanideta.

  • Tehisintellekti kasutamine toodangu vähendamiseks ja palkade ühtlustamiseks.

  • Loomingulise töö käsitlemine nagu lõputu hulk tasuta treeningandmeid ja siis õlgu kehitamine. ( USA autoriõiguste amet , UK GOV.UK )

  • Juunioride rollide kaotamine – mis kõlab tõhusalt seni, kuni sa taipad, et oled just läbi põlenud redeli, mida tulevased eksperdid peavad ronima.

Oskuste mahavõtmine on peen tegu. Sa ei pane seda iga päev tähele. Siis ühel päeval taipad, et keegi meeskonnas ei mäleta, kuidas asi ilma assistendita töötab. Ja kui assistent eksib, siis eksite teie kõik koos... mis on omamoodi õudusunenägu. 😬


Võimu kontsentratsioon: kes saab vaikimisi sätted määrata? 🏢⚡

Isegi kui tehisintellekt on „neutraalne” (mis ei ole), saab seda kontrolliv isik kujundada:

  • millisele teabele on lihtne ligi pääseda,

  • mida ülendatakse või maetakse,

  • mis keel on lubatud,

  • millist käitumist soodustatakse.

Ja kuna tehisintellekti süsteemide ehitamine ja käitamine võib olla kulukas, kipub võim koonduma. See pole vandenõuteooria. See on majandusteadus tehnoloogilise dressipluusiga. ( UK CMA )

"Liiga kaugel" hetk siin

Kui vaikimisi seadused muutuvad nähtamatuks:

  • Sa ei tea, mida filtreeritakse,

  • sa ei saa loogikat kontrollida,

  • ja te ei saa realistlikult loobuda ilma juurdepääsu tööle, kogukonnale või põhiteenustele kaotamata.

Tervislik ökosüsteem vajab konkurentsi, läbipaistvust ja reaalset kasutajavalikut. Vastasel juhul rendite sisuliselt reaalsust. 😵♂️


Praktiline kontrollnimekiri: kuidas aru saada, kas tehisintellekt läheb sinu maailmas liiale 🧾🔍

Siin on minu poolt kasutatav kõhutunde kontrollnimekiri (ja jah, see on ebatäiuslik):

Kui olete eraisik

  • Ma tunnen ära, millal ma tehisintellektiga suhtlen. ( Euroopa Komisjon )

  • See süsteem sunnib mind üle jagama.

  • Mul oleks okei väljundiga tegeleda, kui see on usutaval moel vale.

  • Kui mind selle abil petetaks, aitaks platvorm mind... või kehitaks õlgu.

Kui oled ettevõte või meeskond

  • Me kasutame tehisintellekti, sest see on väärtuslik või trendikas ja juhtkond on rahutu.

  • Me teame, milliseid andmeid süsteem puudutab.

  • Mõjutatud kasutaja saab tulemuste peale edasi kaevata. ( UK ICO )

  • Inimestel on õigus mudelit alistada.

  • Meil on tehisintellekti tõrgete korral intsidentidele reageerimise plaanid.

  • Jälgime triivi, väärkasutust ja ebatavalisi äärmusjuhtumeid.

Kui vastasid paljudele neist küsimustele eitavalt, ei tähenda see, et oled kuri. See tähendab, et oled tavalises inimlikus olekus, kus „me saatsime selle minema ja lootsime“. Aga lootmine pole kahjuks strateegia. 😅


Lõppsõnad 🧠✅

Niisiis… Kas tehisintellekt on läinud liiga kaugele?
Liiga kaugele on see läinud seal, kus seda kasutatakse ilma vastutuseta , eriti kõrge riskiga otsuste langetamisel, massilise veenmise ja jälgimise puhul. Liiga kaugele on see läinud ka usalduse õõnestamises – sest kui usaldus puruneb, muutub kõik sotsiaalselt kallimaks ja vaenulikumaks. ( NIST AI RMF 1.0 , EU AI Act )

Kuid tehisintellekt ei ole loomupäraselt hukule määratud ega loomupäraselt täiuslik. See on võimas multiplikaator. Küsimus on selles, kas me ehitame kaitsepiirdeid sama agressiivselt kui võimekust.

Kiire kokkuvõte:

  • Tööriistana on tehisintellekt hea.

  • See on ohtlik kui vastutustundetu autoriteet.

  • Kui keegi ei saa edasi kaevata, aru või loobuda, siis sellest hakkab asi liiale minema. 🚦 ( GDPR artikkel 22 , UK ICO )


KKK

Kas tehisintellekt on igapäevaelus liiga kaugele läinud?

Paljudes kohtades on tehisintellekt liiale läinud, sest see on hakanud otsuste langetamisse ja suhtlusse libisema ilma selgete piiride või vastutuseta. Probleem seisneb harva selles, et tehisintellekt on olemas; see on tehisintellekt, mis on vaikselt ja vähese järelevalveta sisse õmmeldud värbamisse, tervishoidu, klienditeenindusse ja uudisvoogudesse. Kui inimesed ei suuda vahet teha, et tegemist on tehisintellektiga, ei saa tulemusi vaidlustada või ei saa sellest loobuda, siis lakkab see tundumast tööriistana ja hakkab tunduma süsteemina.

Kuidas näeb välja „tehisintellekti liialeminek” kõrge panusega otsuste puhul?

Paistab, et tehisintellekti kasutatakse tervishoius, rahanduses, eluasemevaldkonnas, tööhõives, hariduses, immigratsioonis või kriminaalõiguses ilma tugevate piireteta. Põhiprobleem ei ole see, et mudelid teevad vigu, vaid see, et need vead kangestuvad poliitikasse ja neid on raske vaidlustada. „Arvuti ütleb ei” otsused, millel on õhukesed selgitused ja sisukad apellatsioonid puuduvad, on need, mille puhul kahju kiiresti suureneb.

Kuidas ma saan aru, kas automatiseeritud otsus mind mõjutab, ja mida ma saan teha?

Levinud märk on äkiline tulemus, mida te ei suuda seletada: tagasilükkamine, piirang või „riskiskoori” tunne ilma selge põhjuseta. Paljud süsteemid peaksid avalikustama, millal tehisintellektil oli oluline roll, ja teil peaks olema võimalik küsida otsuse peamisi põhjuseid ja vaidlustamise samme. Praktikas küsige inimeselt ülevaatust, parandage valed andmed ja nõudke lihtsat loobumisteed.

Kas tehisintellekt on privaatsuse, nõusoleku ja andmete kasutamisega liiale läinud?

Tihtilugu ongi nii, kui nõusolekust saab aaretejaht ja andmete kogumine laieneb „igaks juhuks“. Artikli põhipunkt on see, et privaatsusel ja nõusolekul pole erilist kaalu, kui need on peidetud keskkonda või peale surutud ebamääraste terminitega. Tervislikum lähenemisviis on andmete minimeerimine: koguge vähem, hoidke vähem ja tehke valikud üheselt mõistetavad, et inimesed hiljem üllatusi ei kogeks.

Kuidas süvavõltsingud ja tehisintellekti pettused muudavad usalduse tähendust internetis?

Nad muudavad tõe valikuliseks, vähendades veenvate võltshäälte, -videote, -arvustuste ja -identiteetide loomise kulusid. Probleem on asümmeetrias: valede genereerimine on odav, samas kui tõe kontrollimine on aeglane ja väsitav. Praktiliste kaitsemeetmete hulka kuuluvad päritolusignaalid meediale, viirusliku jagamise aeglustamine, tugevamad identiteedikontrollid seal, kus see on oluline, ja „väljaspool sagedust kontrollimise“ harjumused, näiteks tagasihelistamine või jagatud koodsõna kasutamine.

Millised on kõige praktilisemad piirded, et tehisintellekt ei läheks liiga kaugele?

Tulemusi muutvate piirete hulka kuuluvad inimeste kaasamine oluliste otsuste ülevaatamiseks, selged apellatsiooniprotsessid ja auditilogid, mis suudavad pärast ebaõnnestumisi vastata küsimusele „mis juhtus?“. Mudeli hindamine ja eelarvamuste testimine aitavad ennustatavat kahju varem tuvastada, samas kui punaste meeskondade testimine simuleerib väärkasutust enne, kui ründajad seda teevad. Kiiruspiirangud ja juurdepääsu kontroll aitavad koheselt vältida kuritarvituste levikut ning andmete minimeerimine vähendab riski üldiselt.

Millal tehisintellektil põhinev valve ületab piiri?

See ületab piiri, kui kõik muutub vaikimisi anduriks: näotuvastus rahvahulkades, liikumismustrite jälgimine või enesekindel „emotsioonide tuvastamine“, mida kasutatakse karistamiseks või kontrollimiseks. Isegi ebatäpsed süsteemid võivad põhjustada tõsist kahju, kui need õigustavad sekkumist või teenuste keelamist. Hea tava näeb välja nagu kitsad kasutusjuhud, ranged säilituspiirangud, sisukad loobumisvõimalused, sõltumatu järelevalve ja kindel „ei“ ebakindlatele emotsioonidel põhinevatele otsustele.

Kas tehisintellekt muudab inimesed produktiivsemaks või vähendab vaikselt tööoskust?

Mõlemad võivad olla tõesed samaaegselt ja see pinge ongi mõte. Tehisintellekt saab aidata rutiinse mustandi, korduvate kodeerimismustrite ja ligipääsetavuse loomisel, vabastades inimesed keskenduma kõrgema taseme mõtlemisele. See läheb liiale, kui asendab rolle ilma üleminekuplaanideta, pigistab palku, käsitleb loomingulist tööd tasuta koolitusandmetena või eemaldab nooremad rollid, mis loovad tulevasi oskusi. Oskuste vähendamine jääb peeneks seni, kuni meeskonnad ei saa enam ilma assistendita toimida.

Viited

  1. Riiklik Standardite ja Tehnoloogia Instituut (NIST) - tehisintellekti riskijuhtimise raamistik (AI RMF 1.0) - nist.gov

  2. Euroopa LiitELi tehisintellekti seadus (määrus (EL) 2024/1689) – Euroopa Liidu Teataja (inglise keeles)europa.eu

  3. Euroopa Komisjontehisintellekti reguleeriv raamistik (ELi tehisintellekti seaduse poliitikaleht)europa.eu

  4. ELi tehisintellekti seaduse klienditeenindusIII lisa (kõrge riskiga tehisintellekti süsteemid)europa.eu

  5. Euroopa Liitusaldusväärse tehisintellekti eeskirjad ELis (ELi tehisintellekti seaduse kokkuvõte)europa.eu

  6. Ühendkuningriigi infokomissari büroo (ICO)Mis on automatiseeritud isikuotsuste tegemine ja profiilianalüüs?ico.org.uk

  7. Ühendkuningriigi teabevoliniku büroo (ICO) - Mida ütleb Ühendkuningriigi isikuandmete kaitse üldmäärus automatiseeritud otsuste tegemise ja profiilianalüüsi kohta? - ico.org.uk

  8. Ühendkuningriigi infokomissari büroo (ICO)automatiseeritud otsuste tegemine ja profiilide koostamine (juhenduskeskus)ico.org.uk

  9. Ühendkuningriigi teabevoliniku büroo (ICO) - andmete minimeerimine (Ühendkuningriigi isikuandmete kaitse üldmääruse põhimõtete juhend) - ico.org.uk

  10. GDPR-info.eu - GDPR artikkel 22 - gdpr-info.eu

  11. GDPR-info.eu - GDPR-i artikkel 5 - gdpr-info.eu

  12. USA föderaalne kaubanduskomisjon (FTC) - petised kasutavad tehisintellekti oma pere hädaabiskeemide täiustamiseks - ftc.gov

  13. USA föderaalne kaubanduskomisjon (FTC) - petised kasutavad teie raha varastamiseks võltsitud hädaolukordi - ftc.gov

  14. USA föderaalne kaubanduskomisjon (FTC) - lõplik reegel võltsitud arvustuste ja iseloomustuste keelustamiseks (pressiteade) - ftc.gov

  15. Föderaalne Juurdlusbüroo (FBI) - FBI hoiatab tehisintellekti kasutavate küberkurjategijate kasvava ohu eest - fbi.gov

  16. Majanduskoostöö ja Arengu Organisatsioon (OECD) - OECD tehisintellekti põhimõtted - oecd.ai

  17. OECDNõukogu soovitus tehisintellekti kohta (OECD/LEGAL/0449)oecd.org

  18. Euroopa KomisjonLäbipaistvate tehisintellekti süsteemide suunised ja tegevusjuhend (KKK)europa.eu

  19. Sisu päritolu ja autentsuse koalitsioon (C2PA) - spetsifikatsioonid v2.3 - c2pa.org

  20. Ühendkuningriigi konkurentsi- ja turuamet (CMA)tehisintellekti alusmudelid: esialgne aruannegov.uk

  21. USA Toidu- ja Ravimiamet (FDA)tehisintellektil põhinevad meditsiiniseadmedfda.gov

  22. NIST - Infosüsteemide ja organisatsioonide turvalisuse ja privaatsuse kontroll (SP 800-53 Rev. 5) - nist.gov

  23. NIST - Generatiivse tehisintellekti profiil (NIST.AI.600-1, ipd) - nist.gov

  24. Avatud ülemaailmne rakenduste turbeprojekt (OWASP) - piiramatu ressursikasutus (API turvalisuse 10 parimat, 2023) - owasp.org

  25. NIST - Näotuvastusteenuse pakkuja testi (FRVT) demograafia - nist.gov

  26. Barrett jt (2019) - Artikkel (PMC) - nih.gov

  27. OECDTehisintellekti kasutamine töökohal (PDF)oecd.org

  28. Maailma Majandusfoorum (WEF) - Töökohtade tuleviku aruanne 2025 - Kokkuvõte - weforum.org

  29. USA autoriõiguse amet - autoriõigus ja tehisintellekt, 3. osa: generatiivse tehisintellekti koolitusaruanne (avaldamiseelne versioon) (PDF) - copyright.gov

  30. Ühendkuningriigi valitsus (GOV.UK) - Autoriõigus ja tehisintellekt (konsultatsioon) - gov.uk

Leia uusim tehisintellekt ametlikust tehisintellekti abilise poest

Meist

Tagasi blogisse