Katonai tiltólistán az Anthropic: Veszélyes az AI?

márc 18, 2026 | Hírek

Katonai tiltólistán az Anthropic: Veszélyes az AI?

Az amerikai Igazságügyi Minisztérium szerint az Anthropic nem kaphat többé bizalmat a kritikus katonai rendszerekben, mert fennáll a szabotázs veszélye. A kormány attól tart, hogy a cég szigorú etikai alapelvei miatt éles háborús helyzetben korlátozhatják vagy váratlanul leállíthatják a mesterséges intelligenciát.

A Trump-adminisztráció és a Pentagon közötti konfliktus középpontjában a népszerű Claude nyelvi modell áll. A kormányzati ügyvédek érvelése szerint az Anthropic „kiszámíthatatlanná” vált, és fennáll a kockázat, hogy a fejlesztők szándékosan módosítják a technológiát, ha a hadsereg átlépi a cég által megszabott etikai „vörös vonalakat”. Az Anthropic szerint ez jogtalan retorzió, hiszen ők csupán a tömeges megfigyelés és a teljesen autonóm fegyverek ellen emeltek szót, mivel a technológia szerintük még nem elég érett a felelős harctéri bevetésre. A tét óriási: ha a tiltás érvényben marad, a cég idén akár több milliárd dolláros bevételtől is eleshet.

A Pentagon nem vár a bírósági döntésre, máris megkezdte az alternatívák keresését. Olyan versenytársak rendszereit vizsgálják, mint a Google, az OpenAI és Elon Musk xAI projektje. Bár jelenleg a Claude az egyetlen AI, amely engedéllyel rendelkezik a legmagasabb szintű titkosított katonai hálózatokhoz, a kormányzati bizalomvesztés megnyitotta az utat a konkurencia előtt.

Ez a jogi csata valójában a jövő hadviseléséről szól: kié a végső kontroll a digitális agyak felett? Egy olyan sci-fibe illő világba léptünk, ahol a szoftveres etika és a nemzetbiztonság frontvonalai élesen ütköznek egymással, meghatározva a következő évtizedek védelmi stratégiáit.

Forrás: Wired

Ez is érdekelhet:

Nézd meg ezeket a kütyüket is: