Anthropic dice no, OpenAI dice sì – A proposito di intelligenza artificiale e confini umani

Scritto il 09/03/2026

Nel giro di pochi mesi abbiamo visto due immagini opposte del futuro dell’intelligenza artificiale.
Da una parte Anthropic, che dichiara di non voler fornire i propri modelli per usi esplicitamente anti‑umani. Dall’altra OpenAI, sempre più allineata alla logica del “se è tecnicamente possibile e c’è domanda, si fa”, anche quando la domanda arriva da apparati militari, di sorveglianza, di propaganda.
Non è solo una differenza di marketing. È una scelta di campo su che cosa l’IA deve diventare.

Quando un’azienda dice “no”

Il caso Anthropic è interessante proprio perché rompe una narrazione comoda: quella dell’IA come tecnologia neutra, che “dipende da come la usi”.
L’azienda, nata con una forte attenzione ai temi di AI safety, ha messo nero su bianco che ci sono richieste a cui non risponderà: sistemi per sorveglianza di massa, applicazioni che disumanizzano le persone, integrazioni che spostano il potere di vita o di morte fuori dalla responsabilità umana.
Tradotto: non tutto ciò che è tecnicamente possibile è un business legittimo.
Questo “no” ha un prezzo: significa rinunciare a contratti importanti, a relazioni con governi e apparati di difesa, a una fetta di mercato “calda”. Ma manda un segnale potente: un’azienda privata che decide che esistono limiti etici che contano più delle opportunità commerciali.

Quando un’azienda dice (quasi sempre) “sì”

Sul fronte opposto, la traiettoria di OpenAI è molto diversa.
Nata come organizzazione “non profit per il bene dell’umanità”, si è progressivamente trasformata in azienda ibrida ad altissima vocazione commerciale, legata a doppio filo a Big Tech e oggi sempre più integrata nelle strategie di potere di Stati e grandi piattaforme.
Le aperture a usi governativi, militari e di sicurezza vengono giustificate con argomenti noti:
· se non li sviluppiamo noi, lo farà qualcun altro;
· è meglio che tecnologie potenti siano in mano “responsabile”;
· il mondo è pericoloso, l’IA serve per difenderci.
È il linguaggio tipico dell’inevitabilità: la tecnologia va comunque avanti, l’unica scelta è decidere chi la controlla. In questa logica il “no” scompare. Restano solo modalità di gestione del sì.

Non è una disputa tra puri e cattivi

Il rischio, a questo punto, è semplificare: Anthropic “buona”, OpenAI “cattiva”.
Sarebbe un errore. Entrambe sono aziende private, entrambe cercano profitti, entrambe modificano policy e posizionamento in base a contesto e pressioni.
La differenza vera è altrove: che cosa diventa discutibile, e che cosa no.
· Per Anthropic è legittimo discutere se un certo uso sia compatibile con una certa idea di umano.
· Per OpenAI (e per gran parte del settore) il dibattito si sposta su quanto regolare, come mitigare i rischi, quali controlli aggiungere – dando per scontato che l’uso in sé sia accettabile.
È la differenza tra un sistema che prevede il diritto di rifiutare certe applicazioni e uno che si limita a gestirne i danni collaterali.

IA anti‑umana: di che cosa parliamo davvero

“Anti‑umana” non è una parola da manifesto. È una categoria operativa.
Un uso dell’IA diventa anti‑umano quando:
· disumanizza: riduce persone a oggetti di sorveglianza, target pubblicitari, bersagli da colpire;
· toglie responsabilità: delega a sistemi opachi decisioni che riguardano vita, libertà, diritti;
· trasforma il conflitto in calcolo: guerre gestite come simulazioni, repressioni come problemi di ottimizzazione;
· accetta come costo la frattura sociale: perdita di lavoro, destabilizzazione democratica, polarizzazione, pur di non rallentare la corsa.
Non serve arrivare alla fantascienza.
Bastano pochi esempi concreti: sistemi di riconoscimento facciale usati per reprimere oppositori; modelli che generano campagne di disinformazione su scala industriale; algoritmi che decidono chi sorvegliare, chi fermare, chi interrogare.
Qui il “no” non è moralismo astratto. È difesa minima di una soglia di umanità.

Mala tempora: perché questa scelta conta oggi

Viviamo in un tempo in cui la pressione a usare l’IA “contro” le persone è fortissima:
· governi che chiedono accesso illimitato a modelli e dati;
· apparati militari che vedono nell’IA un moltiplicatore di potenza;
· aziende che sognano controllo totale su comportamenti, preferenze, movimenti;
· una cultura dell’accelerazione in cui chi rallenta viene visto come traditore del progresso.
In questo contesto, il “no” di un’azienda come Anthropic vale più di una semplice policy: dimostra che la retorica dell’inevitabile è, appunto, solo retorica.
Qualcuno può alzarsi dal tavolo e dire: questo non lo facciamo.
Il “sì” quasi automatico di OpenAI, invece, mostra il lato oscuro di un modello di sviluppo che non conosce altro metro se non la scala: più utenti, più dati, più casi d’uso, più integrazioni – comunque, dovunque, con chiunque.

Che cosa c’entra tutto questo con chi lavora in sanità

Si potrebbe pensare che questa sia una disputa tra giganti della Silicon Valley. Non lo è.
Chi lavora in un ospedale, in una ASL, in una direzione sanitaria, si trova davanti alla stessa scelta: portare l’IA dentro l’organizzazione per proteggere e rafforzare l’umano, o per comprimerlo.
· Un ospedale può introdurre sistemi di triage algoritmico che aiutano a vedere prima chi è più fragile, oppure che servono soprattutto a spostare colpe e responsabilità fuori dalla catena clinica.
· Una direzione generale può usare modelli predittivi per anticipare rischi, carenze, bisogni della popolazione; oppure per sorvegliare performance, misurare ogni azione del personale, ottimizzare produttività a scapito della relazione.
· Una Regione può usare l’IA per semplificare davvero l’accesso ai servizi, oppure per alzare barriere invisibili – rapide per chi le conosce, impenetrabili per chi è già fragile.
Il punto non è tanto quale modello adottiamo, ma quale cultura mettiamo nella richiesta e nell’uso.

Un criterio semplice

In questo caos di sigle, policy, annunci e polemiche, forse può aiutarci un criterio molto semplice, quasi ingenuo:
Un’applicazione di IA è accettabile solo se aumenta il margine di umanità percepito da chi la subisce.
Se un paziente, un cittadino, un operatore esce dall’interazione più ascoltato, più compreso, più tutelato, allora forse siamo dalla parte giusta.
Se esce più controllato, più sostituibile, più solo, allora qualcosa non va – anche se la tecnologia funziona perfettamente.

Il no e il sì che ci riguardano

In fondo, la storia del “no” di Anthropic e del “sì” di OpenAI non parla solo di loro.
Parla di noi, di che cosa siamo disposti ad accettare in nome del progresso, di quanto siamo pronti a dire:
· no a usi anti‑umani dell’IA, anche se efficienti, economici, seducenti;
· sì a un’IA che ci aiuti a prenderci cura meglio, capire meglio, decidere meglio, senza sostituirsi a ciò che ci rende umani.
Il vero discrimine dei prossimi anni non sarà tra chi userà l’IA e chi no.
Sarà tra chi la userà contro le persone e chi la userà insieme alle persone.
Anthropic e OpenAI sono due simboli di questo bivio.
Sta a noi decidere da che parte vogliamo stare, ogni volta che firmiamo un contratto, approviamo un progetto, adottiamo un sistema.
Perché l’IA non sarà mai più umana di noi. E il suo “no”, o il suo “sì”, comincia sempre da quello che scegliamo di dire noi.

Nota di contesto

I riferimenti ad Anthropic e OpenAI si basano su dichiarazioni e notizie pubbliche disponibili a inizio 2026, in particolare: le prese di posizione di Anthropic sui limiti d’uso militare e di sorveglianza di massa, il suo scontro pubblico con il Dipartimento della Difesa statunitense, e l’accordo siglato da OpenAI con lo stesso Dipartimento della Difesa nel febbraio 2026.
Questo testo non è un’analisi esaustiva delle policy delle due aziende né un giudizio definitivo sulla loro condotta: è una lettura interpretativa, che usa i due casi come punto di partenza per ragionare su una scelta che riguarda chiunque, oggi, si trovi a decidere come e per chi usare l’intelligenza artificiale.