Tehisintellekti uudised 15. veebruar 2026

Tehisintellekti uudiste kokkuvõte: 15. veebruar 2026

🦞 OpenClawi asutaja Steinberger liitub OpenAI-ga, avatud lähtekoodiga robotist saab sihtasutus

Peter Steinberger suundub OpenAI poole, et edendada „isiklikke agente“, samal ajal kui OpenClaw ise paigutatakse sihtasutusse, et see jääks avatud lähtekoodiga (ja toetatuks). See jaotus on... üsna nutikas – palka ehitaja, hoia projekt avalikuna.

OpenClawi esitlus on värskendavalt praktiline: meilide sorteerimine, kindlustuspaberite vormistamine, lennule registreerimine, tüütud haldusülesanded. See on ka GitHubis paisunud ja populaarsus on tekitanud turvaprobleeme, eriti kui inimesed seda hooletult kasutavad.

🪖 Pentagon on tüdinud antropoloogilisest vastuseisust Claude'i tehisintellekti mudeli kasutamisele sõjaväes ja võib suhted katkestada, ütleb raport

Põhiline vaidlus: Pentagon soovib laialdast, „kõikidel seaduslikel eesmärkidel“ ligipääsu ning Anthropic püüab endiselt hoida rangeid piire täisautonoomsete relvade ja massilise jälgimise osas. Selline lahkarvamus kõlab filosoofiliselt seni, kuni keegi ütleb: „Me võime teid asendada.“

Üks alahinnatud nüanss – ametnikud ei taha, et mudel ootamatult töövooge keset protsessi blokeeriks, ja nad ei taha igavesti äärepealt läbi rääkida (õiglane... aga samas ka oi-oi). Siin on tõeline „kelle käes on võtmed“ pinge ja see pole peen.

🧠 Startup loob mudeli inimkäitumise ennustamiseks

Simile kaasas 100 miljoni dollari suuruse rahastamisvooru, et luua „piiratud õppimise“ mudel, mille eesmärk on ennustada inimeste käitumist – sealhulgas väga täpsemalt tõenäoliste küsimuste ennetamist näiteks tulukõnede puhul. Kitsas sihtmärk, suured ambitsioonid, veidi kõhe kombinatsioon.

See lähenemisviis tugineb intervjuudele päris inimestega ja käitumusuuringute andmetele ning seejärel simulatsioonide läbiviimisele tehisintellekti agentidega, mille eesmärk on peegeldada tegelikke eelistusi. See on nagu ilmamudeli loomine inimeste otsuste jaoks... mis kõlab võimatuna seni, kuni see enam võimatu pole.

🧑⚖️ Uudis: Valge Maja avaldab Utah' osariigi seadusandjale survet tehisintellekti läbipaistvuse seaduseelnõu tühistamiseks

Utah' osariigi tasemel tehisintellekti läbipaistvuse edendamine on saanud Valgelt Majalt otsest kriitikat ning ametnikud kutsuvad seaduseelnõu algatajat üles seda mitte edasi viima. Seaduseelnõu keskmes on läbipaistvus ja laste turvalisus – puhtalt optilise külje pealt on sellega raske vaielda.

Aga suurem võitlus on jurisdiktsiooni küsimus: kes saab reegleid kehtestada, kas osariigid või föderaalvalitsus. Ja jah, see on urisemine – nagu kaks inimest haaraksid sama rooli ja kinnitaksid, et nemad on see, kes vaikib.

🎬 ByteDance lubab pärast Disney ähvardust takistada tehisintellekti videotööriistades volitamata IP-aadressi kasutamist

Disney saatis ByteDance'i tehisintellektiga videogeneraatori osas keelu ja ByteDance väidab, et tugevdab kaitsemeetmeid intellektuaalomandi ja sarnasuste loata kasutamise vältimiseks. Väidetavalt väidetakse, et tööriist suudab tuttavaid frantsiisitegelasi välja sülitada justkui oleksid nad lihtsalt... avaliku omandi kleebised.

See on kokkupõrge, mida kõik ette nägid: viiruslike tehisintellekti videotööriistad arenevad kiiresti, stuudiod liiguvad kohtuvaidlustes edasi ja „lisame kaitsemeetmed” saab vaikimisi vabanduskeeleks. Teisel kombel näeb tehnoloogia välja nagu maagia – ja juriidiline pool näib olevat gravitatsioon.

KKK

Mida tähendab see, et OpenClawi asutaja liitus OpenAI-ga, samal ajal kui OpenClaw kolis sihtasutuseks?

See annab märku lõhest „isiklike agentide” loomise ja avalikult hallatava projekti vahel. Steinbergeri liitumine OpenAI-ga annab mõista, et ta keskendub seal agentide tüüpi toodete arendamisele. OpenClawi paigutamine sihtasutusse on mõeldud selle avatud lähtekoodiga ja jätkusuutliku toetamise säilitamiseks. Praktikas on selle sammu eesmärk säilitada kogukonna usaldus, samas kui ehitaja läheb sinna, kus ressursid on.

Miks keskenduvad OpenClawi stiilis tehisintellekti agendid sellistele töödele nagu e-post ja paberimajandus?

Kuna „eluaegne administreerimise“ töö on korduv, reeglipõhine ja aeganõudev, on see praktiline automatiseerimise sihtmärk. Siinsed näited – e-posti sorteerimine, kindlustuspaberid ja lennule registreerimine – on kitsarinnalised ülesanded, millel on selged edukriteeriumid. Selline fookus võib panna agendid end väärtuslikuna tundma kiiremini kui vabama iseloomuga assistendid. See rõhutab ka seda, miks on hoolikas juurdepääsukontroll oluline, kui agendid puudutavad isiklikke kontosid.

Kuidas saab avatud lähtekoodiga tehisintellekti agenti, näiteks OpenClawi, juurutada ilma turvaprobleeme tekitamata?

Käsitle seda nagu tarkvara, mis näeb tundlikke andmeid, mitte nagu mänguasjaskripti. Levinud lähenemisviis on lukustada volitused, piirata õigused minimaalselt vajalikule ning pidada logisid ja auditeerimisjälgi. Käita seda piiratud keskkonnas ja eraldada see väärtuslikest süsteemidest. Paljud turvamured tulenevad hooletu juurutamisest, eriti kui inimesed avaldavad lõpp-punkte või märke ilma tugevate kaitsemeetmeteta.

Miks on Pentagon rahulolematu Anthropici piirangutega Claude'i sõjaliseks kasutamiseks?

Vaidlus keskendub ulatusele ja kontrollile: Pentagon soovib laialdast juurdepääsu „kõikidele seaduslikele eesmärkidele“, samas kui Anthropicut kirjeldatakse kui rangete piirangute hoidmist täisautonoomsete relvade ja massilise jälgimise osas. Ametnikud ei soovi ka, et mudelid blokeeriksid töövooge keskel või nõuaksid lõputuid läbirääkimisi ääremaa juhtumite puhul. See pinge on vähem abstraktne, kui see kõlab – küsimus on selles, kes otsustab, mida mudel reaalsetes operatsioonides teha saab.

Kuidas püüavad idufirmad tehisintellekti abil inimeste käitumist ennustada ja miks see vastuoluline tundub?

Siinne näide, Simile, järgib „piiratud õppimise“ mudelit, mille eesmärk on ennustada inimeste käitumist, sealhulgas ennetada tõenäolisi küsimusi sellistes kontekstides nagu tulukõned. Kirjeldatud lähenemisviis ühendab intervjuud käitumuslike uuringute andmete ja simulatsioonidega, kasutades tehisintellekti agente, mis on mõeldud tegelike eelistuste peegeldamiseks. See tundub kõhedusttekitav, sest see nihutab tehisintellekti inimestele reageerimisest nende prognoosimisele. Väljakutse seisneb väidete piiritlemises ja liigse enesekindluse vältimises.

Mis juhtub, kui tehisintellekti videotööriistad genereerivad autoriõigustega kaitstud tegelasi, nagu ByteDance'i ja Disney kokkupõrkes?

Kirjeldatud muster on tuttav: stuudio annab välja tegevuse lõpetamise korralduse ja platvorm reageerib kaitsemeetmete tugevdamisega, et vältida volitamata intellektuaalomandi või sarnasuste kasutamist. Paljudes tööriistades tähendavad kaitsemeetmed rangemaid sisufiltreid, äratuntavate tegelaste paremat tuvastamist ja selgemat kasutajapoliitika jõustamist. Põhiline konflikt on kiiruse ja vastutuse vahel – viiruste genereerimine liigub kiiresti ja õiguste jõustamine toimib nagu gravitatsioon. Oodake selliseid kokkupõrkeid videogeneraatorite levikuga.

Eilsed tehisintellekti uudised: 13. veebruar 2026

Leia uusim tehisintellekt ametlikust tehisintellekti abilise poest

Meist

Tagasi blogisse