
Immaginate di ricevere un video del vostro capo. Lo vedete, lo sentite, vi chiede di trasferire d’urgenza milioni di euro per un affare lampo, e voi lo fate. Solo dopo scoprite che non era lui, ma un deepfake perfetto creato da un’intelligenza artificiale. Sembra un film, ma è la cronaca.
Sam Altman e il giallo di Sora: perché OpenAI ha staccato la spina?
La notizia che nelle ultime ore ha scosso il settore è la chiusura di Sora. L’app che prometteva di trasformare chiunque in un regista di Hollywood è stata spenta da Sam Altman ancora prima di nascere. Perché? Ufficialmente è un cambio di strategia. La verità però, è più terra terra: OpenAI deve sbarcare in Borsa a fine 2026 ed ha bisogno di presentarsi con la faccia pulita.
Non puoi vendere azioni ai grandi investitori se la tua creatura è diventata lo strumento preferito dei “falsari” del web. Tra Michael che “risorge” per video assurdi e scenari di guerra finti in grado di far tremare i governi, il rischio di cause legali miliardarie era troppo alto. Senza contare i costi folli di energia per far girare tutto.
I social non sono più zone franche: la sentenza di Los Angeles
Mentre i giganti del tech fanno un passo indietro, i Tribunali iniziano a presentare il conto. A Los Angeles, un giudice ha condannato Instagram e YouTube a risarcire una ragazza per i danni psicologici causati dalle loro piattaforme.
È una svolta epocale: per la prima volta si dice chiaramente che i social non sono neutrali. Sono responsabili di quello che causano, soprattutto ai più giovani. E il dibattito che finora ha tenuto banco tra gli esperti sulla salute e sulla vita delle persone, rischia di arrivare anche nella vita reale.
AI Act: l’Europa mette le regole tra vittorie e buchi neri
In questo caos, l’Europa prova a mettere le regole con l’AI Act. Il Parlamento europeo ha messo al bando le app nudifier, che usano l’intelligenza artificiale per spogliare le persone senza il loro consenso. Una vittoria di civiltà, non c’è dubbio.

Eppure c’è un lato oscuro: nello stesso momento non è arrivata la proroga al regolamento sulla privacy, che consente alle app di rintracciare volontariamente il materiale pedopornografico diffuso dagli utenti per contrastare l’abuso sessuale sui minori. A bloccarla, i disaccordi tra Parlamento europeo e Consiglio Ue, che non hanno trovato un’intesa per estenderla.
Ci troviamo davanti a un bivio: preferiamo una rete sorvegliata h24 o una “foresta selvaggia” dove la privacy diventa il nascondiglio perfetto per i mostri? Dal 3 aprile entreremo in un nuovo vuoto normativo che fa paura.
L’unica cosa che non possono clonare è la nostra storia
La domanda finale non è più “cosa è vero“, ma “di chi mi posso fidare?“. Oggi chiunque può clonare la mia voce o la tua faccia con un clic. Ma c’è un limite che l’algoritmo non può oltrepassare: la nostra storia e la nostra imperfezione.
Più l’intelligenza artificiale diventa precisa e “liscia”, più la nostra natura umana, con i suoi difetti e la sua verità, diventa l’unico certificato di autenticità che ci resta. Per difenderci dalle macchine, dobbiamo tornare a essere terribilmente umani.
La verità visiva è morta e Sora è il primo martire. Ora che non possiamo più credere ai nostri occhi, a cosa vi aggrappate per non affogare nei pixel? Vi fidate del vostro istinto o avete già ceduto all’algoritmo?


