Hegseth grozi, da bo vsakega, ki posluje z Anthropicom, izključil iz obrambnih poslov
Ameriški minister za vojno Pete Hegseth, kot se po odločitvi Trumpa zdaj imenuje nekdanji obrambni minister, je tik pred odločitvijo, da Anthropic, podjetje za umetno inteligenco, razglasi za varnostno tveganje v dobavni verigi, kar bi pomenilo, da bi moral vsak, ki želi poslovati z ameriško vojsko, prekiniti vse vezi s podjetjem. Takšno oznako Pentagon praviloma namenja sovražnim državam. Neposredni sprožilec je spor o uporabi Anthropicovega velikega jezikovnega modela (ang. Large Language Model - LLM) Claude med januarsko operacijo za prijetje venezuelskega predsednika Nicolása Madura. Ameriške oborožene sile so model, do katerega so dostopale prek partnerstva med Anthropicom in podjetjem za podatkovno analitiko Palantir Technologies, uporabile ne le pri načrtovanju, temveč tudi med samo izvedbo, kar je prvič, da je komercialni model umetne inteligence aktivno deloval v tajni vojaški operaciji. Po operaciji je eden od vodilnih pri Anthropicu kontaktiral Palantir in povprašal, ali je bil Claude dejansko uporabljen med racijo, pri čemer je nakazal neodobravanje, saj je med operacijo prišlo tudi do uporabe sile.
Natančna vloga, ki jo je Claude opravljal med operacijo, ostaja, zaenkrat, še nerazkrita. Glede na dosedanjo prakso bi lahko šlo za obdelavo satelitskih posnetkov ali interpretacijo obveščevalnih podatkov v realnem času. Uvajanje umetne inteligence v oborožitvene sisteme sicer ni več novost. Izraelska vojska je v Gazi z algoritmi sestavljala sezname tarč in uporabila brezpilotna letala, ki so samostojno izbirala cilje, ameriške oborožene sile pa so umetno inteligenco že uporabile za usmerjanje napadov v Iraku in Siriji. A v vseh teh primerih je šlo za lastne sisteme Pentagona, zasnovane za vojaško rabo.
Pogodba za 200 milijonov na kocki
Neimenovani predstavnik Trumpove administracije je za Axios povedal, da Pentagon zdaj ponovno presoja svojo pogodbo z Anthropicom, saj naj bi se pri podjetju zanimali, ali je bila njihova programska oprema dejansko uporabljena v operaciji. Taisti vir je namignil, da Anthropic tovrstne uporabe ni odobril, pogajanja o posameznih primerih uporabe pa po njegovih besedah »preprosto niso izvedljiva«. Pogodba med Anthropicom in Pentagonom je vredna do 200 milijonov dolarjev in je bila sklenjena preteklo poletje. Tiskovni predstavnik Anthropica je dejal le, da je vsaka uporaba klepetalnika Claude, »najsi gre za zasebni sektor ali za državne organe, zavezana našim pravilom uporabe«. Ti pogoji izrecno prepovedujejo uporabo tehnologije za spodbujanje nasilja, razvoj orožja ali nadzor prebivalstva.
Zakaj je prav Claude edini na tajnih omrežjih Pentagona?
Claude zavzema svojevrsten položaj v arhitekturi umetne inteligence znotraj Pentagona. Gre se za edini večji komercialni LLM, ki je trenutno odobren za uporabo na tajnih omrežjih. Konkurenti - OpenAI, Google in xAI Elona Muska - so sicer sklenili dogovore, ki uporabnikom v oboroženih silah omogočajo dostop z manj omejitvami, a noben od njih še ni prestopil praga tajnosti. Pogajanja za njihovo vključitev v te sisteme še potekajo. Anthropic je svojo znamko gradil na podobi previdnega akterja v industriji, ki jo sicer poganja mantra »move fast and break things«. Podjetje se promovira kot laboratorij, ki svari o eksistencialnih tveganjih in odgovornem uvajanju umetne inteligence, njegov direktor Dario Amodei pa je večkrat opozoril na nevarnosti nenadziranega razvoja te tehnologije. A prav Anthropicov LLM, ne pa modeli manj skrupuloznih konkurentov, je končal na tajnih omrežjih, kjer načrtovalci operacij obdelujejo obveščevalne podatke in koordinirajo napade
Coface: podatkovni centri so »kolosalna stava«
Epizoda z Madurom je zgolj ena podatkovna točka v precej obsežnejši zgodbi, ki zadeva materialno infrastrukturo, brez katere noben od teh modelov ne obstaja. Za vsakim klepetalnim oknom, ki ga uporabnik odpre na zaslonu, stoji velikansko fizično zaledje podatkovnih centrov, električnih omrežij in hladilnih sistemov. Zavarovalnica za zavarovanje terjatev Coface je v svoji globalni analizi izgradnjo podatkovnih centrov opisala kot »kolosalno stavo«. Izdatki za opremo podatkovnih centrov so se v manj kot treh letih podvojili in leta 2025 dosegli 475 milijard dolarjev, medtem ko sta umetna inteligenca in podatkovni centri v drugem četrtletju leta 2025 prispevala petino rasti BDP ZDA. Skupna tržna kapitalizacija vodilnih podjetij, povezanih z umetno inteligenco - Nvidie, Microsofta, Alphabeta, Amazona in Mete -, je od lansiranja LLMa ChatGPT konec leta 2022 zrasla za več kot 12 bilijonov dolarjev.
Po ocenah analitikov Coface vsaka milijarda dolarjev, vložena v podatkovne centre za umetno inteligenco, zahteva približno 125 milijonov dolarjev sorodnih naložb v energetskem sektorju - dve tretjini za nadgradnjo omrežij, tretjino za nove proizvodne zmogljivosti. V ZDA zamude pri priključitvi na omrežje ponekod presegajo pet let, zgoščenost naložb v peščici vozlišč pa je na lokalni ravni že potrojila cene elektrike. Po svetu bi ta ozka grla do leta 2030 lahko zavrla projekte, katerih skupna vrednost presega 750 milijard dolarjev. Pri zavarovalnici prav tako opažajo, da nihče natančno ne ve, koliko računalniške moči bo svet dejansko potreboval. Ocene se razhajajo za do 80 odstotkov, kar povečuje tveganje, da bo zgrajenih preveč podatkovnih centrov glede na dejansko povpraševanje. Če pride do korekcije na trgu, bo ta najprej prizadela podjetja, ki tovrstne podatkovne centre gradijo in upravljajo, nato pa še njihove dobavitelje, od ponudnikov storitev v oblaku do proizvajalcev opreme. Pomanjkanje specializiranih inženirjev dodatno dviguje stroške vzdolž celotne dobavne verige.
Amodeijeva doktrina
Direktor Anthropica Dario Amodei je v obsežnem eseju, objavljenem konec januarja, sam zastavil okvir, ki mu zdaj zapira manevrski prostor. Zapisal je, da mora umetna inteligenca podpirati nacionalno obrambo na vse načine, »razen tistih, ki bi nas naredili bolj podobne našim avtokratskim nasprotnikom«. Izpostavil je štiri tehnologije, ki bi jih avtokracije lahko uporabile za zatiranje lastnih državljanov, med njimi popolnoma avtonomne roje dronov, množični nadzor z umetno inteligenco, personalizirano propagando ter podatkovno manipulacijo. Hkrati pa je zagovarjal stališče, da bi morale demokracije s pomočjo umetne inteligence »razbijati in slabiti avtokracije od znotraj«, kar je za direktorja podjetja, ki se promovira kot previdni akter v industriji, nenavadno neposredna geopolitična drža.
Pentagon zdaj testira, kje natanko poteka Amodeijeva meja. Obstoječa zakonodaja o množičnem nadzoru ne upošteva umetne inteligence, Pentagon pa že zdaj lahko zbira ogromne količine podatkov o posameznikih, od objav na družbenih omrežjih do dovoljenj za nošenje orožja. Obstajajo upravičeni pomisleki, da bi umetna inteligenca te pristojnosti lahko nadgradila do točke, kjer bi avtomatizirano označevala civiliste, ki ustrezajo določenim profilom. Amodei je potegnil črto pri množičnem nadzoru in avtonomnem orožju. Pentagon zahteva dostop prav do teh zmogljivosti in trdi, da so omejitve, ki jih postavlja Anthropic, v praksi neizvedljive, saj operativna resničnost ne pozna jasnih ločnic med obveščevalno dejavnostjo in množičnim nadzorom.
Posledice Hegsethove grožnje bi segale daleč prek ene pogodbe vredne 200 milijonov dolarjev. Oznaka varnostnega tveganja v dobavni verigi bi od vsakega podjetja, ki posluje s Pentagonom, zahtevala potrdilo, da v svojih delovnih procesih ne uporablja Claudea, Anthropic pa je nedavno sporočil, da osem od desetih največjih ameriških podjetij uporablja njegove modele. Hkrati se podjetje pripravlja na prvo javno ponudbo delnic in je v pridobivanje strank iz obrambnega sektorja že vložilo znatna sredstva. Ameriški kongres je za fiskalno leto 2026 sprejel obrambni proračun v višini 839 milijard dolarjev in prvič odobril samostojno proračunsko postavko za avtonomne sisteme v višini 9,8 milijarde. Umik iz tega trga bi investitorjem sporočil, da je poslovni model varnega razvoja umetne inteligence finančno nevzdržen. Popustitev pa bi sporočila nekaj drugega, namreč da je varnost le marketinška fasada, ki vzdrži natanko do trenutka, ko se pojavi dovolj velik kupec.
V začetku prejšnjega tedna je vodja Anthropicove raziskovalne ekipe za varovalke Mrinank Sharma odstopil z enigmatičnim javnim opozorilom, da je »svet v nevarnosti«. Le nekaj dni pozneje je Anthropic vložil 20 milijonov dolarjev v zagovornoško skupino, ki se zavzema za strožjo regulacijo umetne inteligence. Oba signala kažeta na podjetje, ki se zaveda, da manevrskega prostora med Amodeijevo doktrino in zahtevami Pentagona skoraj ni več.
Ilustracija: ChatGPT/OpenAI
vir: https://www.si21.com
Editor
Avtor pri si24.newsNajbolj brano
Močan gospodarski zagon za Italijo
Pogodba za 200 milijonov na kocki
E-Transit Courier za še večjo produktivn...
Kaj morate vedeti o posodobljenem modelu...
Hčerinsko podjetje Skupine MOL, Geoinfor...
Strateško partnerstvo med Iskraemeco in...
Iskraemeco ponovno član združenja LoRa A...
Povabilo k naročilu numizmatičnih izdelk...
Krški občinski svet podprl nadaljevanje...