Se l'IA ti spoglia in foto, impara a conoscerla: la sfida della prof Arianna a Unipa
Quando ha avuto l'opportunità di spostarsi alle Scienze Umanistiche, l'ha colta subito: l'intervista alla ricercatrice che legge i fenomeni più inquietanti di questo nuovo mondo
La professoressa Arianna Pipitone di Unipa
«L'IA non ha creato la misoginia, l'ha amplificata e le ha dato nuovi strumenti». Arianna Pipitone, ricercatrice al Dipartimento di Scienze Umanistiche dell'Università di Palermo, studia come gli esseri umani si relazionano con l’intelligenza artificiale con i rischi che quel rapporto porta con sè. Il suo laboratorio non si trova al Dipartimento di Ingegneria e non è un caso.
«A un certo punto mi sono resa conto che il mio approccio alla robotica era molto diverso da quello tradizionale. Mi occupo di coscienza artificiale, di come i robot possono sviluppare una forma di autoconsapevolezza e questo tema è molto più vicino alla filosofia, alla psicologia, alle scienze umane che all'ingegneria classica».
Quando ha avuto l'opportunità di spostarsi alle Scienze Umanistiche, l'ha colta subito. È da questa posizione di confine che Arianna Pipitone legge i fenomeni più inquietanti dell'intelligenza artificiale contemporanea. I deepfake e i deep nude, per esempio: contenuti falsi generati dall'IA che colpiscono quasi esclusivamente donne perché creano immagini sensibili, distruggendo così reputazioni e violando corpi in modo sempre più difficile da smascherare.
Il meccanismo che li rende così efficaci è lo stesso che studia nel suo laboratorio: «Quando una macchina riesce a simulare processi che noi associamo all'umanità, i pensieri, le emozioni, le esitazioni, le microespressioni, il nostro cervello abbassa automaticamente le difese critiche perché siamo programmati evolutivamente per fidarci di ciò che riconosciamo come umano». I deepfake sfruttano esattamente questo cortocircuito.
Non sono solo sosfisticati tecnicamente, ma soprattutto psicologicamente. Ma il problema, ci racconta Arianna Pipitone, viene da più lontano: «Se dovessi dare una priorità direi che è prima di tutto culturale. Il fatto che la tecnologia venga usata prevalentemente contro le donne e in modo così specifico, per colpire la loro immagine, la loro sessualità, la loro reputazione, riflette dinamiche di potere che esistono nella società ben prima dell'intelligenza artificiale».
La tecnologia ha abbassato la soglia, non ha creato l'odio. Questo non significa che il problema tecnico non esista. «Oggi è troppo facile creare questi contenuti e troppo difficile rimuoverli».
Nel suo laboratorio stanno lavorando su sistemi di rilevamento automatico dei deepfake e su strumenti educativi per insegnare a riconoscere la manipolazione digitale. «Alla fine la tecnologia da sola non basta, serve una società più consapevole e più critica».
Quest'anno tiene al Dams un corso di "Intelligenza Artificiale e Robotica per le Arti Visive e Performative": «L'IA sta cambiando tutto - il modo in cui creiamo arte, il modo in cui comunichiamo, il modo in cui lavoriamo. E se le persone che lavorano in questi settori non hanno gli strumenti per capire cosa sta succedendo, rischiano di subire passivamente questi cambiamenti invece di governarli».
Corsi come questo dovrebbero essere integrati anche in giurisprudenza, comunicazione, scienze sociali. «Pensi ai futuri giuristi che dovranno applicare l'AI Act europeo - se non capiscono come funziona l'IA, come fanno a regolamentarla in modo efficace?» L'alfabetizzazione digitale, dice, non può essere opzionale.
Nel mondo della ricerca, occuparsi dei rischi sociali dell'IA viene ancora percepito da alcuni come meno serio rispetto al lavoro tecnico. Pipitone conclude: «Non puoi sviluppare tecnologie così potenti e poi voltarti dall'altra parte quando vengono usate per fare del male. La consapevolezza è il primo strumento di difesa».
«A un certo punto mi sono resa conto che il mio approccio alla robotica era molto diverso da quello tradizionale. Mi occupo di coscienza artificiale, di come i robot possono sviluppare una forma di autoconsapevolezza e questo tema è molto più vicino alla filosofia, alla psicologia, alle scienze umane che all'ingegneria classica».
Quando ha avuto l'opportunità di spostarsi alle Scienze Umanistiche, l'ha colta subito. È da questa posizione di confine che Arianna Pipitone legge i fenomeni più inquietanti dell'intelligenza artificiale contemporanea. I deepfake e i deep nude, per esempio: contenuti falsi generati dall'IA che colpiscono quasi esclusivamente donne perché creano immagini sensibili, distruggendo così reputazioni e violando corpi in modo sempre più difficile da smascherare.
Il meccanismo che li rende così efficaci è lo stesso che studia nel suo laboratorio: «Quando una macchina riesce a simulare processi che noi associamo all'umanità, i pensieri, le emozioni, le esitazioni, le microespressioni, il nostro cervello abbassa automaticamente le difese critiche perché siamo programmati evolutivamente per fidarci di ciò che riconosciamo come umano». I deepfake sfruttano esattamente questo cortocircuito.
Non sono solo sosfisticati tecnicamente, ma soprattutto psicologicamente. Ma il problema, ci racconta Arianna Pipitone, viene da più lontano: «Se dovessi dare una priorità direi che è prima di tutto culturale. Il fatto che la tecnologia venga usata prevalentemente contro le donne e in modo così specifico, per colpire la loro immagine, la loro sessualità, la loro reputazione, riflette dinamiche di potere che esistono nella società ben prima dell'intelligenza artificiale».
La tecnologia ha abbassato la soglia, non ha creato l'odio. Questo non significa che il problema tecnico non esista. «Oggi è troppo facile creare questi contenuti e troppo difficile rimuoverli».
Nel suo laboratorio stanno lavorando su sistemi di rilevamento automatico dei deepfake e su strumenti educativi per insegnare a riconoscere la manipolazione digitale. «Alla fine la tecnologia da sola non basta, serve una società più consapevole e più critica».
Quest'anno tiene al Dams un corso di "Intelligenza Artificiale e Robotica per le Arti Visive e Performative": «L'IA sta cambiando tutto - il modo in cui creiamo arte, il modo in cui comunichiamo, il modo in cui lavoriamo. E se le persone che lavorano in questi settori non hanno gli strumenti per capire cosa sta succedendo, rischiano di subire passivamente questi cambiamenti invece di governarli».
Corsi come questo dovrebbero essere integrati anche in giurisprudenza, comunicazione, scienze sociali. «Pensi ai futuri giuristi che dovranno applicare l'AI Act europeo - se non capiscono come funziona l'IA, come fanno a regolamentarla in modo efficace?» L'alfabetizzazione digitale, dice, non può essere opzionale.
Nel mondo della ricerca, occuparsi dei rischi sociali dell'IA viene ancora percepito da alcuni come meno serio rispetto al lavoro tecnico. Pipitone conclude: «Non puoi sviluppare tecnologie così potenti e poi voltarti dall'altra parte quando vengono usate per fare del male. La consapevolezza è il primo strumento di difesa».
|
Ti è piaciuto questo articolo?
Seguici anche sui social
Iscriviti alla newsletter
|










Seguici su Facebook
Seguici su Instagram
Iscriviti al canale TikTok
Iscriviti al canale Whatsapp
Iscriviti al canale Telegram




