Indoneesia blokeerib süvavõltsingupiltide tõttu juurdepääsu Muski tehisintellekti vestlusrobotile Grok ↗
Indoneesia blokeeris ajutiselt Groki rakenduse pärast seda, kui seda kasutati naiste ja laste sihtimiseks mõeldud seksuaalse süvavõltsingute loomiseks ilma nõusolekuta. Valitsus käsitles seda inimõiguste ja avaliku julgeoleku probleemina, mitte väikese tehnilise ebamugavusena.
Survepunkt on otsekohene: kui tööriist suudab käsu peale päris inimesi „riietest lahti riietada“, siis tõendamiskoormis läheb üle. Platvormid peavad näitama, et nad suudavad seda ära hoida, mitte ainult kinnitama, et nad mõtlevad sellele.
Elon Musk ütleb, et Ühendkuningriik soovib X-ile võimaliku keelustamise ajal sõnavabadust maha suruda ↗
Ühendkuningriigi ministrid kehtestasid avalikult trahve – ja isegi X-i blokeerimise – pärast seda, kui Groki kasutati ilma nõusolekuta seksuaalselt ilmse sisuga piltide loomiseks. Musk aga lükkas tagasi tuttava sõnavabaduse raamistikuga... aga Ühendkuningriigi õiguslik olukord libiseb „väitlusklubist“ „vastavuse tähtaja“ poole
Ofcomi õhutatakse kiiresti tegutsema ja seadusandjad osutavad samale süngele mustrile: kui pildid on levinud, ei oota kahju kannatavalt poliitika uuendusi.
🧑💻 Väidetavalt palub OpenAI töövõtjatel üles laadida päris töid varasematest töödest ↗
Väidetavalt palub OpenAI koos koolitusandmete partneriga töövõtjatel üles laadida reaalseid tööobjekte varasematest (ja praegustest) töödest – näiteks dokumente, arvutustabeleid, andmepakette ja repositooriume. Avaldatud eesmärk on hinnata ja täiustada tehisintellekti agente kontoritüüpi ülesannete täitmisel.
Keeruline osa on ilmne ja pisut sürreaalne: töövõtjatele öeldakse, et nad peaksid tundlikku teavet ise puhastama. See on kiirelt arenevasse protsessi palju usaldust panna – nagu paluda kellelgi armastavalt ahjukinnastega pommi kahjutuks teha.
🗂️ OpenAI palub töövõtjatel üles laadida varasemate tööde töid, et hinnata tehisintellekti agentide tulemuslikkust ↗
Eraldi aruanne käsitleb sama olukorda ja seda, miks see privaatsuse ja intellektuaalomandi juriste häirib. Isegi kui kõik tegutsevad heas usus, on „eemaldage konfidentsiaalsed andmed” ebamäärane juhis, kui tegemist on päris ettevõtte dokumentidega.
See vihjab ka laiemale strateegiale: tehisintellekti agendid pole enam pelgalt jutukad kaaspiloodid – neid treenitakse jäljendama tegeliku töö sassis ja mitme failiga reaalsust. Praktiline, jah. Ja natuke… oi-oi.
🏦 Allianz ja Anthropic loovad ülemaailmse partnerluse vastutustundliku tehisintellekti edendamiseks kindlustuses ↗
Allianz ja Anthropic teatasid ülemaailmsest partnerlusest, mis keskendub kolmele valdkonnale: töötajate tootlikkus, agentiivse tehisintellekti abil tehtav tegevuse automatiseerimine ja disainipõhine vastavus. Kindlustus on täielik paberimajandus, seega tähendab „agentlik” siin põhimõtteliselt keerukate töövoogude automatiseerimist auditeerimisjälgi kaotamata.
Idee on järgmine: tehke lahedat automatiseerimist, aga hoidke kviitungid alles. Reguleeritud tööstusharudes on see ainus viis, kuidas see skaleerub ilma vastutusest tulenevaks piñata'ks muutumata.
🕵️♂️ Avaldus vastuseks Groki tehisintellektile X-i kohta ↗
Ühendkuningriigi andmekaitseamet väidab, et võttis ühendust X-i ja xAI-ga, et saada selgust, kuidas nad Groki loodud sisu pärast muret teevad isikuandmete käitlemise ja inimeste õiguste kaitsmise osas. Asi pole ainult „sisu modereerimises” – oluline on ka see, kas inimeste andmeid töödeldakse seaduslikult ja kas õigusi kaitstakse.
See on selline regulatiivne samm, mis kõlab viisakalt, aga muutub siis vaikselt äärmiselt tõsiseks, kui vastused on ähmased... või ebamäärased või mõlemat.
KKK
Miks Indoneesia blokeeris juurdepääsu Groki tehisintellektile?
Indoneesia blokeeris ajutiselt Groki rakenduse pärast seda, kui väidetavalt kasutati seda konsensusliku seksuaalse süvavõltsingute loomiseks, sealhulgas naistele ja lastele suunatud piltide loomiseks. Ametnikud kirjeldasid seda sammu inimõiguste ja avaliku julgeoleku probleemina, mitte väikese tehnoloogilise vaidlusena. Põhisõnum on, et „me parandame selle hiljem“ ei ole piisav, kui tööriistad võivad tekitada kohest ja pöördumatut kahju.
Mida kaalub Ühendkuningriik pärast seda, kui Groki loodud süvavõltsingud X-ile ilmusid?
Ühendkuningriigi ministrid arutasid avalikult trahve ja isegi X-i blokeerimise võimalust pärast seda, kui Groki kasutati seksuaalselt ilmsete piltide loomiseks ilma nõusolekuta. Poliitiline ja regulatiivne toon nihkub jõustatava vastavuse, mitte avatud arutelu poole. Seadusandjad pöörduvad ikka ja jälle tagasi ajastusse: kui pildid levivad, seisavad ohvrid silmitsi kahjuga juba ammu enne, kui platvormid avaldavad ajakohastatud eeskirjad.
Mida see tähendab, kui regulaatorid muudavad tehisintellekti pilditööriistade puhul tõendamiskoormise teisele poolele?
„Tõendamiskoormise ümberpööramise” idee seisneb selles, et platvormid võivad vajada pigem näitama, et nad suudavad ära hoida konkreetseid kahjusid – näiteks nõusolekuta „riietest lahti riietuvate” piltide genereerimist –, selle asemel et lihtsalt kaitsemeetmeid lubada. Praktikas surub see ettevõtteid demonstreeritavate kontrollimeetmete, mõõdetava jõustamise ja selge rikete käsitlemise poole. See annab ka märku, et „kavatsus” on vähem oluline kui käegakatsutavad tulemused ja korratav ennetamine.
Kuidas saavad platvormid vähendada tehisintellekti loodud mitte-konsensuslike süvavõltsinguid?
Levinud lähenemisviis on kihiline ennetamine: piirata päris inimestega seotud päringuid ja väljundeid, blokeerida „riiete lahtiriietamisega“ seotud taotlused ning tuvastada ja peatada katsed luua seksuaalalaseid pilte ilma nõusolekuta. Paljud kanalid lisavad kiirusepiiranguid, tugevamat identiteedi ja kuritarvitamise jälgimist ning kiireid eemaldamisprotsesse pärast sisu levikut. Eesmärk ei ole ainult poliitikakeel, vaid ka tööriistad, mis peavad vastu vaenulikule kasutamisele.
Miks tekitavad OpenAI alltöövõtjate poolt üleslaaditud päris töödokumendid häiret?
Aruannete kohaselt palub OpenAI (koos koolitusandmete partneriga) alltöövõtjatel üles laadida päris tööobjekte – dokumente, arvutustabeleid, andmepakette ja repositooriume –, et hinnata ja täiustada kontoritöö tehisintellekti agente. Mure seisneb selles, et alltöövõtjatele öeldakse, et nad peaksid tundlikke detaile ise puhastama, mis võib olla veaohtlik. Privaatsuse ja intellektuaalomandi juristid muretsevad, et see „konfidentsiaalse teabe eemaldamise” juhis on päris ettevõtte materjalide jaoks liiga mitmetähenduslik.
Milline on Allianzi ja Anthropici partnerluse tähtsus kindlustuses "agentse tehisintellekti" osas?
Allianz ja Anthropic kirjeldasid globaalset partnerlust, mis keskendub töötajate tootlikkusele, agentliku tehisintellekti abil toimuvale tegevuse automatiseerimisele ja disainipõhisele vastavusele. Kindlustusprotsessid on keerulised ja rangelt reguleeritud, seega tähendab „agentlik” sageli mitmeastmeliste protsesside automatiseerimist ilma vastutust kaotamata. Rõhk auditeerimisjälgedel ja „kviitungite säilitamisel” peegeldab praktilist reaalsust: automatiseerimine laieneb reguleeritud tööstusharudes ainult siis, kui see on kontrollitav ja kaitstav.