Anthropic non cede al Pentagono: Claude non si presterà alla sorveglianza di massa

0

ROMA (Public Policy Bytes) – Anthropic si rifiuta “in coscienza di acconsentire alla richiesta del Pentagono” di rimuovere le salvaguardie etiche del suo modello di intelligenza artificiale Claude allo scopo di “condurre operazioni di sorveglianza di massa negli Stati Uniti e produrre armi totalmente autonome”, pena la rescissione del contratto di fornitura da 200 milioni stipulato lo scorso luglio. Ad affermarlo è Dario Amodei, fondatore e amministratore delegato dell’azienda, che conferma in un comunicato le indiscrezioni sull’ultimatum posto dal segretario della Guerra degli Stati Uniti Pete Hegseth alla startup di intelligenza artificiale californiana. “Questi casi d’uso – spiega l’amministratore delegato – non sono mai stati inclusi nei contratti tra Anthropic e il dipartimento della Guerra, e riteniamo che non debbano esservi inclusi ora”, in quanto “possono minare, anziché difendere, i valori democratici ed esulano dai limiti di ciò che la tecnologia attuale può fare in modo sicuro e affidabile”.

Il dipartimento – come da anticipazioni di Axios, che trovano ora riscontro nelle affermazioni di Amodei – “ha dichiarato che stipulerà contratti solo con aziende di IA che acconsentano a ‘qualsiasi uso legale’ della tecnologia e rimuovano le salvaguardie di sicurezza nei casi menzionati” – ha sottolineato l’imprenditore, aggiungendo che il Pentagono “ha minacciato di rimuovere l’azienda dai propri sistemi, qualora mantenesse tali salvaguardie, e di attribuire ad Anthropic lo status di organizzazione che rappresenta un ‘rischio per la catena di approvvigionamento’ – etichetta riservata agli avversari degli Stati Uniti, mai prima d’ora applicata a un’azienda americana – nonché di invocare il Defense production act per imporre la rimozione delle salvaguardie”, che conferirebbe ampi poteri al presidente Trump.

La startup – sottolinea Amodei – “era stata la prima nel settore dell’IA di frontiera a distribuire i propri modelli nelle reti riservate del Governo, nonché la prima a metterli a disposizione dei Laboratori nazionali e a fornirne di personalizzati alle istituzioni pubbliche del settore della sicurezza nazionale” e “queste due eccezioni poste all’utilizzo della nostra IA, per quanto a nostra conoscenza, non hanno finora costituito un ostacolo all’accelerazione nell’adozione e nell’utilizzo dei nostri modelli”, che sono “ampiamente distribuiti nel dipartimento della Guerra e in altre agenzie di sicurezza nazionale per applicazioni mission-critical, quali analisi di intelligence, modellizzazione e simulazione, pianificazione operativa, operazioni informatiche e molto altro”. Per giunta – sottolinea il fondatore – “Anthropic non ha mai sollevato obiezioni a specifiche operazioni militari, né tentato di limitare in alcun modo l’uso della nostra tecnologia” da parte di Washington.

Tali minacce non modificano la nostra posizione”, garantisce Amodei, che ribadisce “il sostegno dell’azienda all’uso dell’IA in missioni legittime di intelligence estera e controspionaggio”, ricordando anche l’impegno della startup “nell’utilizzo dell’IA per difendere gli Stati Uniti e le altre democrazie e per sconfiggere i nostri avversari autocratici”.

Anthropic – conclude l’imprenditore – ha sempre agito per difendere il primato degli Stati Uniti nell’IA, anche quando ciò era contrario all’interesse di breve termine dell’azienda, scegliendo di rinunciare a diverse centinaia di milioni di dollari di ricavi per interrompere l’utilizzo di Claude da parte di società collegate al Partito comunista cinese, bloccando attacchi informatici sponsorizzati da quest’ultimo, condotti tentando di abusare di Claude, e sostenendo l’adozione di rigorosi controlli sulle esportazioni di chip per garantire un vantaggio competitivo alla nostra democrazia”. (Public Policy Bytes) DVZ

Foto CC Tech Crunch