Categorie
etica intelligenza artificiale

Generazione di immagini: problemi di etica

La generazione di immagini va al di là della capacità della macchina di indovinare il numero di dita di una mano: è una questione etica.

La tecnologia di text-to-image può essere utilizzata per generare un’ampia gamma di contenuti ingannevoli e altrimenti dannosi, la generazione di immagini può quindi portare a problemi di etica inaspettati.

La ricerca va avanti e nuovi algoritmi più o meno performanti spuntano e si diffondono. È il caso di Stable -diffusion, un altro modello di text-to-image generation, diverso da DALL-E 2 di Open AI, Imagen di Google e altri modelli di generazione di immagini di cui ho parlato in questo articolo.

Questo nuovo algoritmo aggiunge una serie di ottimizzazioni ed è stato sponsorizzato da Stability AI, una startup che basa le sua attività sulla diffusione dell’AI open-source. La startup ha così supportato un gruppo di ricerca chiamato Compvis nella LMU di Monaco che ha creato l’algoritmo “Stable-Diffusion”.

Ecco qualche esempio:

Immagine generata con il servizio Stable Diffusion
ai generativa creatività etica
Immagine generata con NightCafe Creator, servizio che usa Stable Diffusion

Generazione di immagini: perché l’etica?

Secondo il Time più di 200.000 persone stanno oggi usando Dall-E Mini ogni giorno.

Mentre molte persone hanno ragioni legittime e vantaggiose per utilizzare questa forma di algoritmi, altri la usano per indurre gli spettatori ignari a credere che le informazioni presentate siano accurate quando non lo sono.

Questo tipo di tecnologia è un problema serio perché può essere utilizzata per produrre e distribuire contenuti dannosi, comprese notizie false.

Forse questo, se non vogliamo pensare solo al tornaconto economico, è uno dei motivi per cui le aziende e le attività di ricerca che ruotano intorno alla tecnologia text-to-image sono restie dal rilasciarla a uso pubblico.

Cattivo uso dell’AI generativa

Già si moltiplicano le iniziative d’uso a scopo goliardico. In questo profilo Twitter ad esempio Weird Dall-E. https://twitter.com/weirddalle troviamo già brutti esempi (attenzione, immagini fake ma che possono disgustare). Non posto il profilo Instagram perché anche peggiore.

Anche TechCrunch ha parlato in un suo articolo dei problemi etici della generazione di immagini senza controllo, di cui purtroppo il 90% sono vittime le donne.

Diventa quindi decisamente un problema di safety per le persone più ingenue o che possono facilmente essere manipolate.

Certo il problema è noto anche dai ricercatori e non è diverso da quanto abbiamo visto pochi giorni fa con BlenderBot 3, negli intenti di Meta “a skillful and safe chatbot that improves itself”.

Sappiamo cosa è successo. Come già in passato per TayBot di Microsoft il bot è stato inondato di contenuti spazzatura, linguaggio offensivo e che viola i termini d’uso, costringendo gli sviluppatori a ritirare il progetto dall’uso pubblico.

La vera domanda è: siamo pronti a un uso corretto ed etico dell’Intelligenza Artificiale?

L’uso etico dell’intelligenza artificiale è un argomento ampiamente discusso. Negli ultimi anni, l’IA è stata utilizzata per svolgere attività come disegnare abiti, modificare immagini e persino addestrare altri sistemi di intelligenza artificiale. I problemi aumentano quando l’ambiente di evoluzione e addestramento degli algoritmi non è controllato (supervised).

Senza controllo e addestramento umano la macchina non progredisce. Servono almeno dei dataset di addestramento su cui lasciare la macchina libera di imparare. Il primo problema etico naturalmente è: questi dati sono adeguati?

Ipotizziamo che lo siano, che tutto sia stato fatto bene e che l’algoritmo va, come si suol dire, “in produzione”. Lasciato libero di interagire con il mondo esterno cosa succederà? Purtroppo poche volte qualcosa di buono. Un uso diffuso e gratuito lascia l’accesso di queste tecnologie nelle mani di tutti, ma non sono per tutti!

Aperta ma non per tutti!

Le aziende di sviluppo si lavano spesso la coscienza con frasi come le se seguenti:

Richiediamo che chiunque utilizzi la demo abbia più di 18 anni, che dichiari di aver capito che è solo a scopo di ricerca e intrattenimento e che può formulare dichiarazioni non vere o offensive, e che accetti di non attivare intenzionalmente il bot per fare dichiarazioni offensive.

– Joelle Pineau, direttore generale della ricerca fondamentale sull’intelligenza artificiale di Meta. 8 agosto 2022. [articolo qui]

Altre frasi tipiche, in questo caso prese dal modello Stable-Diffusion su Hugging Face, sono:

“La licenza vieta di condividere qualsiasi contenuto che violi le leggi, produca danni a una persona […]”.

e

“Nonostante l’impressionante capacità di trasformare il testo in immagini, è bene tenere presente che questo modello può produrre contenuti che rafforzano o esacerbano i pregiudizi della società, così come volti realistici, pornografia e violenza”. “[…]

Quali problemi etici dovrebbero porsi gli sviluppatori che creano algoritmi generativi di intelligenza artificiale?

Le implicazioni etiche dell’IA sono numerose e devono essere considerate attentamente prima di implementare gli algoritmi.

Gli sviluppatori dovrebbero porsi domande come “Il mio algoritmo è distorto?” o “Questo algoritmo avvantaggia o danneggia ingiustamente alcune persone?” o ancora “Cosa succederà se lo lasceremo libero di imparare dalle persone?”