Alcune settimane fa, l'intera Internet era piena foto strane e sorprendentemente artistiche generate da un'Intelligenza Artificiale che crea immagini dal testo. Quell'IA non è niente di più e niente di meno che DALL-E (o DALL-E Mini, la sua versione gratuita) dell'azienda OpenAI, che ha appena rilasciato una dichiarazione in cui annuncia che ora è possibile modificare le immagini con volti umani attraverso la sua popolare AI .
Questa funzione era stata precedentemente bandita per paura di un uso improprio. Tuttavia, OpenAI ha migliorato i propri filtri per rimuovere le immagini con "contenuti sessuali, politici e violenti". La cosa più interessante di questa notizia è che lo sarai in grado di chiedere a DALL-E di cambiare il volto di una persona in modo che assomigli a un'altra o di cambiarne l'espressione . L'IA ti consentirà anche di cambiare i vestiti o l'acconciatura di qualcuno.
DALL-E ora può cambiare volti, acconciature e outfit, aumenta il rischio di deepfake?
DALL-E 2 il generatore di immagini AI ora può apportare variazioni a persone/volti. Ecco cosa succede quando carico la mia foto da Twitter #dalle2 pic.twitter.com/kIZpEBNOGS
— Allan Harding (@allanharding) 19 settembre 2022
Con notizie come questa, è inevitabile pensare che qualcuno utilizzerà DALL-E per creare deepfake e compromettere altre persone. Nel caso non lo sapessi, il deepfake è la tecnica che te lo consente cambia il volto di una persona in un'immagine o in un video con risultati così realistici da poter ingannare chiunque . Per fare un esempio di uso improprio, i deepfake possono essere usati per far credere al tuo partner che stai commettendo infedeltà, mettendo la tua faccia nell'immagine di un'altra coppia. Ecco quanto sono pericolosi i deepfake!
OpenAI è consapevole dei rischi posti da questa nuova funzionalità di DALL-E, quindi ha chiarito quanto segue:
"Con i miglioramenti al nostro sistema di sicurezza, DALL-E è ora pronto a supportare questi casi d'uso belli e importanti, riducendo al minimo il potenziale di danno da deepfake".
In altre parole, DALL-E rileverà tentativi di deepfake e li renderà meno realistici quindi nessuno ci cadrà. In teoria suona alla grande, ma vedremo come funziona in pratica.
Non dimenticarlo nei termini e condizioni d'uso di DALL-E è vietato caricare immagini di persone senza il loro consenso , anche se in realtà non esiste alcun filtro o misura che ti impedisca di farlo. Pertanto, speriamo che gli utenti si attengano alla morale e non manipolino l'IA per i loro scopi dannosi. Comunque, vuoi vedere di cosa è capace DALL-E? Qui spieghiamo come testare DALL-E 2.