A védelmi beszállítók gyorsan alkalmazkodnak: a Pentagon utasítása szerint a mesterséges intelligenciáját ki kell venni a haditechnikai ellátási láncokból.
Mi történt? Az Egyesült Államok elnöke múlt pénteken hirdetett hat hónapos fokozatos tilalmat a szövetségi szervek számára, miközben a védelmi miniszter azonnal nemzetbiztonsági kockázatként jelölte meg az Anthropic céget, írja a Reuters. A Lockheed Martin közleménye szerint eleget tesz az utasításnak, és minimális hatást vár munkájára, mivel nem egyetlen AI-szolgáltatótól függnek.
Részletek. Jogászok szerint bár a tiltás jogi alapja bizonytalan, a Pentagonnal szerződő vállalatok gyorsan követik az irányelveket, hiszen hatalmas állami megrendelések jelentik a tétet. Más nagy beszállítók, mint a General Dynamics, Raytheon és L3Harris, egyelőre nem nyilatkoztak, az Anthropic pedig bírósági úton kívánja megtámadni a tilalmat. A történet jól mutatja, hogy a fegyvergyártók mennyire érzékenyen reagálnak az elnöki iránymutatásokra – még akkor is, ha azok jogilag vitathatók.
Tiltás nyomán siker. Egy hónapja még kevesen ismerték a nevét, most azonban a Anthropic Claude nevű mesterséges intelligencia-asszisztense az Apple iPhone App Store első helyére ugrott, miután a Pentagon nemzetbiztonsági kockázatként jelölte meg a céget. A Claude február elején még a 42. helyen állt a népszerű ingyenes alkalmazások listáján, a hétvégére viszont már az első lett. A növekvő érdeklődés a Trump-adminisztráció és a Pentagon nyilvános konfliktusa nyomán robbant ki: a szövetségi kormány megtiltotta az AI eszköz használatát, ami széles médiavisszhangot váltott ki. Bár a Claude még messze van a ChatGPT tömeges népszerűségétől – napi felhasználói száma kevesebb mint 2 millió a ChatGPT 20 milliójával szemben – a friss növekedés és a médiafigyelem új lehetőségeket nyithat a cég számára a mainstream felhasználói piacon.