Tehisintellekti uudised 9. märts 2026

Tehisintellekti uudiste kokkuvõte: 9. märts 2026

⚖️ Anthropic kaebab Pentagoni musta nimekirja blokeerimise eest tehisintellekti kasutamise piirangute tõttu

Anthropic on pärast tarneahela riskiks nimetamist Pentagoniga kohtusse kaevanud. Ettevõtte sõnul oli tegu ebaseadusliku kättemaksuga autonoomsete relvade ja kodumaise jälgimise piirete leevendamisest keeldumise eest – mis asetab selle vaidluse tehisintellekti poliitika üheks kõige tuleohtlikumaks leekpunktiks praegu. ( Reuters )

Valitsus soovib paindlikkust „igasuguse seadusliku kasutamise” jaoks, samas kui Anthropic väidab, et eralaboritel peaks endiselt olema lubatud tõmmata rangeid ohutuspiire. Sellest on saanud üks selgemaid teste, mis näitab, kas tehisintellekti ettevõte suudab öelda „ei” sõjalistele tingimustele ilma, et teda selle eest maha tehtaks. ( Reuters )

🧑💻 OpenAI ja Google'i töötajad toetavad Anthropicu kohtuasja Pentagoni vastu

See kohtuasi leidis kiiresti toetust ka konkureerivate laborite seest. Ligi 40 OpenAI ja Google'i töötajat toetasid Anthropicut amicus curiae kohtuistungil, väites, et ettevõtete vastu tehisintellekti ohutuse punaste joonte pärast kättemaksmine on vastuolus avaliku huviga. ( The Verge )

Seega jah, konkurendid on ootamatult samal poolel – vähemalt selles küsimuses. Ülevaade keskendub massijälgimisele ja ebausaldusväärsetele autonoomsetele relvadele, mis muudab kogu asja vähem tavaliseks Silicon Valley snaiperdamiseks ja pigem tõeliseks tööstusharu jooneks liivas... või mudas. ( The Verge )

🛡️ OpenAI omandab Promptfoo, et kaitsta oma tehisintellekti agente

OpenAI teatas, et ostab Promptfoo, idufirma, mis keskendub suurte keelemudelite kaitsmisele vaenulike rünnakute eest. Plaan on liita selle tehnoloogia OpenAI Frontieriga, mis on ettevõtte tehisintellekti agentide äriplatvorm. ( TechCrunch )

See on kõnekas samm. Kõik tahavad, et agentide tehisintellekt teeks rohkem, kiiremini ja kõikjal – aga turvalisuse pool on maha jäänud, olgu siis natuke või palju. See kokkulepe viitab sellele, et OpenAI arvab, et järgmine suur võidujooks ei seisne ainult targemate, vaid ka turvalisemate agentide nimel. ( TechCrunch )

🧪 Anthropic käivitab koodi ülevaatamise tööriista, et kontrollida tehisintellekti loodud koodi tulva

Anthropic võttis Claude Code'i sees kasutusele koodiülevaate, mis on suunatud meeskondadele, kes uppuvad tehisintellekti kodeerimistööriistade loodud pull requestidesse. See kasutab paralleelselt mitut agenti koodi skannimiseks, loogikaprobleemide märgistamiseks, raskusastme järjestamiseks ja kommentaaride jätmiseks otse GitHubis. ( TechCrunch )

Idee on üsna lihtne – tehisintellekt genereerib koodi kiiremini, kui inimesed seda mõistlikult üle vaadata suudavad, seega peab tehisintellekt nüüd tehisintellekti ise üle vaatama. See on küll veidi „mao-sööb-oma-saba“ tüüpi lahendus, aga siiski praktiline. Anthropic väidab, et see on suunatud ettevõtetele, kes juba näevad Claude Code'ilt tohutul hulgal koodiväljundit. ( TechCrunch )

💰 Nvidia toetatud Nscale'i väärtus uues rahastamisvoorus oli 14,6 miljardit dollarit

Suurbritannia tehisintellekti infrastruktuuriettevõte Nscale kaasas C-seeria rahastamisvoorus 2 miljardit dollarit, mille tulemuseks oli 14,6 miljardi dollari suurune väärtus. Toetajate hulgas olid Aker, 8090 Industries, Nvidia, Citadel, Dell ja Jane Street – mis on üsna kaalukas usaldushääletus. ( Reuters )

See on oluline, sest tegemist pole järjekordse mudeli turuletoomise või vestlusroboti kohandamisega. See on buumi „riistade ja labidate” pool – arvutused, infrastruktuur, mahutavus, kõik rasked masinad eesriide taga. Võib-olla mitte glamuurne, aga just sinna suur osa rahast nüüd voolab. ( Reuters )

🧠 Yann LeCuni AMI Labs kogub maailmamudelite loomiseks 1,03 miljardit dollarit

Yann LeCuni uus ettevõtmine AMI Labs kaasas 1,03 miljardit dollarit 3,5 miljardi dollari suuruse eelhindamisega. Ettevõte ajab taga „maailmamudeleid” – tehisintellekti süsteeme, mis on mõeldud õppima reaalsusest endast, mitte peamiselt keelest. ( TechCrunch )

See on otsene filosoofiline ja samas ka märkimisväärselt otsekohene lähenemine praegusele õigusteaduste (LLM) domineerivale konsensusele. LeCun on aastaid väitnud, et tänapäeva keelemudelid ei vii meid inimese tasemel intellekti tasemele, seega muudab see argumendi väga kalliks eksperimendiks. ( TechCrunch )

🇨🇳 Hiina tehnoloogiakeskused reklaamivad OpenClawi tehisintellekti agenti vaatamata turvahoiatustele

Mitmed Hiina kohalikud omavalitsused toetavad OpenClawi, tehisintellekti agenti, mis levib kiiresti vaatamata turvaprobleemidele, mis on seotud selle juurdepääsuga isikuandmetele. Seega näib ametlik meeleolu olevat: jah, riskid on olemas – ja jah, laiendame seda ikkagi. ( Reuters )

See lõhe ongi lugu. Kohalikud keskused tahavad majanduslikku kasu ja ökosüsteemi hoogu, samal ajal kui regulaatorid hoiatavad andmete paljastamise eest. See on nüüdseks tuttav tehisintellekti muster – kõigepealt sprint, hiljem piirded korras või nii see vähemalt paistab. ( Reuters )

KKK

Miks kaebab Anthropic Pentagoni tehisintellekti kasutamise piirangute pärast kohtusse?

Anthropic väidab, et Pentagon nimetas seda tarneahela riskiks pärast seda, kui ettevõte keeldus laiematest tingimustest, mis võiksid laieneda autonoomsetele relvadele ja siseriiklikule jälitustegevusele. See teeb kohtuasjast enamat kui lihtsalt müüja staatuse. See testib, kas tehisintellekti labor suudab säilitada kindlad ohutuspiirangud ja samal ajal valitsuse töö eest konkureerida ilma karistuseta.

Miks toetavad OpenAI ja Google'i töötajad selles tehisintellekti ohutusvaidluses Anthropicu?

Amicus'e kokkuvõte annab märku, et paljud konkureerivate laborite töötajad näevad selles pretsedenti loovat tehisintellekti ohutusprobleemi, mitte pelgalt ühe ettevõtte ja ühe asutuse vahelist võitlust. Neid muretseb see, et müüja karistamine punaste joonte säilitamise eest võib avaldada survet laiemale turule kaitsemeetmete nõrgendamiseks. Praktikas võib see kujundada seda, kuidas tulevasi kaitse- ja avaliku sektori tehisintellekti lepinguid läbirääkimiste käigus peetakse.

Mida võiks Antroopilise Pentagoni juhtum muuta tehisintellekti poliitika ja kaitselepingute jaoks?

Kui Anthropic võidab, võib tehisintellekti ettevõtetel olla tugevam alus määratleda vastuvõetamatuid kasutusviise isegi tundlikesse valitsuskeskkondadesse müües. Kui see kaotab, võivad asutused saada mõjuvõimu, et nõuda tarnijatelt laiemaid „seadusliku kasutamise” tingimusi. Igal juhul mõjutab see vaidlus tõenäoliselt hanketerminoloogiat, riskianalüüse ja seda, kuidas ohutuspiirded kaitselepingutesse lisatakse.

Miks ostis OpenAI tehisintellekti agentidele mõeldud Promptfoo?

Promptfoo on tuntud suurte keelemudelite testimise poolest, et need vastandlike küsimuste ja muude turvanõrkuste suhtes vastuoluliste küsimustega kaasneksid. Sellise tööriista lisamine OpenAI ettevõtte agendi platvormi viitab sellele, et ettevõte näeb turvalisemat juurutamist pigem konkurentsieelise kui kõrvalülesandena. Kuna tehisintellekti agendid võtavad enda kanda üha sisukamat tööd, muutub vastupidavuse ja kuritarvitamise testimine palju raskemaks ignoreerida.

Kuidas saavad meeskonnad tehisintellekti loodud koodi tulvaga ohutumalt toime tulla?

Anthropici uus koodiülevaatuse funktsioon Claude Code'is on suunatud meeskondadele, keda ülekoormavad tehisintellekti kodeerimistööriistade genereeritud pull requestid. See kasutab loogikaprobleemide tuvastamiseks, raskusastme järjestamiseks ja GitHubis kommentaaride lisamiseks paralleelselt mitut agenti. Tavaliselt aitavad sellised tööriistad mahtu sorteerida, kuid inimestest arvustajad on siiski olulised arhitektuuri, konteksti ja lõpliku heakskiidu seisukohast.

Miks tehisintellekti infrastruktuuri praegu nii palju investeeritakse?

Nscale'i viimane rahastamisvoor toob esile, et tehisintellekti tööstus investeerib endiselt tohutult kapitali arvutustesse, infrastruktuuri ja võimsusse. See kulutus võib olla vähem nähtav kui uhke mudeli turuletoomine, kuid see on kõige muu alus. Kui koolituse ja juurutamise nõudlus kasvab pidevalt, saavad kirkade ja labidate müügiga tegelevatest ettevõtetest sageli suurimad võitjad.

Mis on maailmamudelid ja miks Yann LeCun neile panustab?

Maailmamudelid on tehisintellekti süsteemid, mis on loodud õppima maailma käitumisest, mitte peamiselt keeleandmetele tuginema. See on oluline, sest Yann LeCun on juba ammu väitnud, et keelemudelid iseenesest ei saavuta tõenäoliselt inimese tasemel intelligentsust. AMI Labs muudab selle vaate oluliseks kommertspanuseks täiustatud tehisintellekti uuringute uuele teele.

Miks toetavad Hiina tehnoloogiakeskused OpenClawi vaatamata turvahoiatustele?

OpenClawi lugu näitab tuttavat lõhet kiiresti liikuvate tehnoloogiaturgude sees: kohalikud omavalitsused soovivad kasvu, toetusi ja ökosüsteemi hoogu, samas kui regulaatorid muretsevad andmete avalikustamise ja turvalisuse pärast. Agendi toetamine hoiatustest hoolimata viitab majanduslike stiimulite domineerimisele mõnes kohas. Vaatlejate jaoks on see järjekordne meeldetuletus, et omaksvõtt toimub sageli kiiremini kui järelevalve.

Eilsed tehisintellekti uudised: 8. märts 2026

Leia uusim tehisintellekt ametlikust tehisintellekti abilise poest

Meist

Tagasi blogisse