🏫 Mõnes koolis küsitlevad vestlusrobotid õpilasi nende töö kohta. Kuid tehisintellekti revolutsioon teeb õpetajad murelikuks ↗
Mõned Austraalia koolid katsetavad teravamat lähenemist „näita oma tööd” – õpilased lõpetavad ülesande ja seejärel küsitleb tehisintellekti vestlusrobot neid edasi-tagasi, et kontrollida, kas nad said esitatud materjalist aru. See on põhimõtteliselt suuline vestlus, aga masin küsib „mida sa selle all mõtled?”, kuni sa hakkad end nihelema.
Suurem mure on ebaühtlane kasutuselevõtt: valdkonna artikkel hoiatab, et kiired kasutuselevõtjad võivad kihutada ette, samal ajal kui teised jäävad maha, luues kahekiiruselise haridussüsteemi. Õpetajad toovad pidevalt esile ka tuttavaid – ja endiselt tõsiseid – murekohti: privaatsus, heaolu ja see, kuidas takistada „tehisintellekti abi“ libisemist „tehisintellekt tegi seda“ olekusse.
👮 Politsei kasutab Palantiri pakutavaid tehisintellekti tööriistu ametnike väärkäitumise tuvastamiseks ↗
Londoni Metropolitan Metropolitan kasutab Palantiri tarnitud tehisintellekti, et analüüsida sisemisi tööjõumustreid – haiguslugusid, puudumisi, ületunde – otsides signaale, mis võivad olla seotud kutsestandarditega. Seda esitletakse ajaliselt piiratud pilootprojektina ja mis kõige tähtsam, Metropolitan ...
Politseiföderatsioon pole vaimustuses, nimetades seda „automatiseeritud kahtluseks“ ja hoiatades läbipaistmatute tööriistade eest, mis tõlgendavad stressi ja töökoormust valesti. See on üks neist hetkedest, kus tehnoloogia kõlab slaidil kenasti, aga siis kujutad ette, kuidas see maapinnal tundub, ja see muutub järsult kipitavaks.
🛡️ Ühendkuningriigi privaatsusjärelevalve hoiatab ühisavalduses tehisintellekti loodud piltide eest ↗
Ühendkuningriigi ICO liitus teiste regulaatoritega ühises hoiatuses tehisintellekti loodud piltide kohta, mis kujutavad tuvastatavaid inimesi ilma nende nõusolekuta – põhimõtteliselt: ärge käsitlege väidet „see on sünteetiline” maagilise vabandusena. Sõnum on luua kaitsemeetmed varakult ja kaasata regulaatoreid, selle asemel et teha klassikalist tehnoloogilist sammu, kus esmalt saadetakse ja alles siis vabandatakse.
Samuti toovad nad esile laste suurenenud riske, mis on loogiline, sest kui see kraam kord levib, on see nagu sädeluse purki tagasi kühveldamine. Põhimõte on selles, et privaatsus ja väärikus on mõeldud moetsüklist läbi jääma või nii see vähemalt tundub.
🪖 USA kaitseminister Hegseth kutsub Axiosi teatel Anthropicu tegevjuhi rasketeks läbirääkimisteks Claude'i sõjalise kasutamise üle ↗
Reutersi teatel kohtub USA kaitseminister Anthropici tegevjuhiga, et pidada Claude'i sõjalise kasutamise teemal keerulisem vestlus. Pentagon soovib väidetavalt, et suuremad tehisintellekti pakkujad teeksid mudelid salastatud võrkudes kättesaadavaks vähemate piirangutega – ja Anthropic on olnud vastu igasugusele kaitsemeetmete leevendamisele.
Selle allteksti taga peitub klassikaline „tegutse kiiresti, aga… rakettidega“ dilemma. Kui pooled ei suuda piirete osas kokkuleppele jõuda, võivad suhted pingestuda või isegi katkeda – ometi annab Anthropic märku, et läbirääkimised valitsusega on endiselt konstruktiivsed, seega on olukord pingeline, kuid mitte täielike lahkuminekutekstidega (veel).
🧠 ChatGPT - väljalaskemärkmed ↗
OpenAI väljalaskemärkmed viitavad laiendatud kontekstiaknale „Mõtlemisrežiimi“ jaoks – see tähendab, et saate mudelile rohkem teksti sisestada ja pikemaid lõime sidusana hoida ilma varasemaid detaile kaotamata. Kui olete kunagi näinud, kuidas mudel „unustab“ midagi, mida just öeldi (valu), siis see tekst on just sellele suunatud.
See on väga nohiklik uuendus, mis muudab vaikselt praktilist: pikemad dokumendid, sassis projektid, laiaulatuslikumad uurimissessioonid. Mitte glamuurne, aga see on selline torustiku muudatus, mis järsku muudab kogu maja suuremaks.
KKK
Mida see tähendab, kui koolid kasutavad õpilastelt ülesannete kohta küsitlemiseks vestlusroboteid?
Mõnes Austraalia koolis täidavad õpilased ülesande ja seejärel suhtlevad tehisintellektiga töötava vestlusrobotiga, mis uurib nende arutluskäiku. See toimib nagu suuline vestlusrobot, survestades õpilasi selgitama, mida nad kirjutasid ja miks. Eesmärk on kontrollida arusaamist, mitte ainult tulemust. See võib paljastada ka lünki, kui õpilane ei suuda põhiväiteid kaitsta.
Kuidas saaksid tehisintellektiga vestlusrobotid koolides luua „kahekiiruselise“ haridussüsteemi?
Valdkonna aruanne hoiatab, et kiirelt kasutuselevõtvad koolid võivad edumaale tõusta, samas kui aeglasemalt tegutsevad koolid jäävad veelgi maha. Kui mõned koolid võtavad tehisintellekti tööriistu kasutusele arusaamise hindamiseks, õppimise toetamiseks või väärkasutuse ennetamiseks, võivad nad tulemusi kiiremini parandada. Teistel võib puududa eelarve, personalivõimsus või poliitiline selgus võrreldavate süsteemide juurutamiseks. See ebaühtlane kasutuselevõtt võib suurendada olemasolevaid ressursside ja saavutuste lünki.
Kuidas õpetajad püüavad takistada „tehisintellekti abi” muutumist „tehisintellekt tegi seda” stsenaariumiks?
Levinud lähenemisviis on suunata hindamine protsessi ja selgitamise, mitte ainult lõpptoote poole. Vestlusroboti stiilis küsimused, mustandid, refleksioonid või suulised kontrolltööd võivad raskendada arusaamatu töö esitamist. Õpetajad võivad kehtestada ka rangemad piirid vastuvõetavale abile, näiteks ajurünnak versus täielik ümberkirjutamine. Rõhk jääb arusaamise demonstreerimisele, mitte iga tööriista kontrollimisele.
Millised privaatsuse ja heaolu probleemid tekivad tehisintellekti kasutamisel klassides?
Õpetajad väljendavad pidevalt muret selle pärast, milliseid õpilaste andmeid kogutakse, kus neid hoitakse ja kellel on neile juurdepääs. Samuti on muret õpilaste heaolu pärast, kui nad tunnevad, et neid pidevalt jälgitakse või survestatakse masinjuhitavate küsimuste abil. Lapsed on eriline riskirühm, sest tundlik teave võib süsteemides levida või püsida ootamatutel viisidel. Paljud koolid püüavad kaitsemeetmeid varakult paika panna, selle asemel, et neid hiljem ajakohastada.
Kuidas kasutab Metropolitani politsei Palantiri tarnitud tehisintellekti ametnike võimaliku väärkäitumise märgistamiseks?
Londoni Metropolitan Metropolitan kasutab Palantiri tarnitud tehisintellekti tööjõumustrite, näiteks haiguste, puudumiste ja ületunnitöö analüüsimiseks. Eesmärk on märgata signaale, mis võivad olla seotud kutsestandarditega seotud probleemidega. Seda kirjeldatakse kui ajaliselt piiratud pilootprojekti ja Metropolitan ...
Miks on politsei ametiühingud mures tehisintellekti järelevalvevahendite „automaatse kahtluse” pärast?
Politseiföderatsioon on mures, et läbipaistmatud mudelid võivad järeldada väärkäitumist mustritest, millel on healoomulised selgitused. Töökoormuse järsk tõus, terviseprobleemid ja stress võivad nihutada kohalolekut või ületunnitööd ilma väärtegudele viitamata. Kui tööriista loogika ei ole läbipaistev, on ametnikel raskem lippe vaidlustada või juhtidel õiglasi läviväärtusi kalibreerida. Isegi inimlike otsuste korral saavad automatiseeritud signaalid tulemusi ikkagi kujundada.
Mille eest Ühendkuningriigi ICO hoiatab tehisintellekti loodud tuvastatavate inimeste piltide puhul?
Ühendkuningriigi privaatsusjärelevalveasutus liitus teiste regulaatoritega, hoiatades, et „sünteetiline” ei tähenda tagajärgedeta. Kui tehisintellekti loodud pilt kujutab tuvastatavat isikut ilma nõusolekuta, kehtivad privaatsuse ja väärikuse riskid ikkagi. Reguleerijad rõhutavad kaitsemeetmete varajast loomist ja järelevalvega tegelemist, mitte esmalt sisu saatmist. Samuti juhivad nad tähelepanu laste suurenenud riskidele, kus kahju võib sisu levides kiiresti suureneda.
Mis on väidetava Pentagoni surve taga Anthropicule Claude'i sõjalise kasutamise osas?
Reutersi teatel kohtub USA kaitseminister Anthropici tegevjuhiga, et pidada tihedamaid läbirääkimisi Claude'i sõjalise kasutamise üle. Pentagon soovib väidetavalt, et suuremad tehisintellekti pakkujad teeksid mudelid salastatud võrkudes kättesaadavaks vähemate piirangutega. Anthropic on leebemate kaitsemeetmete vastu seisnud, viidates vastuseisule turvapiirete osas. Suhted kõlavad pingeliselt, kuigi mõlemad pooled annavad märku, et läbirääkimised jäävad konstruktiivseks.
Mis muutus ChatGPT väljalaskemärkmetes „Mõtlemise” režiimi konteksti pikkuse osas?
OpenAI väljalaskemärkmed viitavad laiendatud kontekstiaknale „Mõtlemisrežiimis“, mis võimaldab ühes lõimes rohkem teksti paigutada. Praktikas võib see aidata pikkade dokumentide, keerukate projektide ja mitmeastmelise uurimistöö puhul, kus varasemad detailid on olulised. See on pigem torustikulaadne uuendus kui silmatorkav funktsioon. Peamine eelis on vähem detailide kadumist pikemate seansside ajal.