• Italiano
  • English

I rischi dell’Intelligenza Artificiale

Con Intelligenza Artificiale (IA) s’intende la disciplina che permette alle macchine di svolgere compiti tipici della mente umana. Grosso modo. In realtà sulla definizione di IA ci sono svariate diatribe, essendo una parola relativamente nuova – venne usata per la prima volta da John McCarthy nel 1956.

Certo è che al giorno d’oggi l’IA ha un sacco di applicazioni utili e ammirevoli.
Ma proprio perché ci troviamo di fronte a un fenomeno nuovo, non è detto che siamo pronti ad affrontarlo. La regolamentazione dell’uso dell’IA e delle sue applicazioni non è ancora completa, proprio perché ancora nemmeno si conosce a pieno il potenziale d’uso e l’estensione delle capacità dell’IA.

Quali sono i rischi dell’AI?

Per poter riflettere in maniera più consapevole sull’impatto che l’IA potrebbe avere sul nostro modo di vivere, abbiamo analizzato uno studio condotto da un team di accademici e ricercatori delle università di Oxford, Cambridge e Stanford, insieme ad altri istituti.
Il messaggio generale che si può trarre dallo studio, è che ogni passo avanti fatto dall’IA nell’ottica di un utilizzo positivo, è certamente anche un passo avanti per chi quell’uso lo vuole distorcere. Ovvero, la capacità dell’IA di svolgere centinaia di operazioni complesse in pochi istanti, a seconda di chi programma il sistema, può essere usata sia per fare del bene, sia per fare del male.
Gli studiosi hanno analizzato quali siano i possibili usi scorretti dell’IA che già esistono o potranno essere sviluppati nei prossimi cinque anni, e li hanno divisi in tre ambiti di sicurezza.

Sicurezza digitale

L’automazione permessa dall’IA può portare al phishing automatico, ovvero la creazione sistematica di email, siti e link falsi per il furto di informazioni. Si prevede anche un uso malevolo dell’IA che sfrutta le vulnerabilità dell’uomo, ad esempio attraverso la diffusione di video e audio falsi. Tramite l’IA la scoperta dei punti vulnerabili di un software è molto più veloce, e rende gli hackers altrettanto rapidi. Vi è anche la possibilità di “corrompere” l’IA, sfruttando a proprio vantaggio le imperfezioni dell’IA stessa, ad esempio, fornendole in primis dei dati non corretti, o falsati.

Sicurezza fisica

Nelle mani sbagliate, l’IA può essere utilizzata per automatizzare gli attacchi terroristici, per esempio attraverso l’uso di droni o lo sviluppo di apposite armi intelligenti, oltre che automatiche. La manomissione di sistemi intelligenti può causare incidenti pianificati, ad esempio nel caso di macchine automatiche o non controllate da remoto.
Questo video, che è stato creato per far riflettere sulle ipotetiche implicazioni circa l’uso dell’AI, mostra l’altissimo livello di pericolosità di armi intelligenti.

Sicurezza politica

Grazie all’ampia disponibilità di dati, l’IA che viene impiegata per implementare sistemi di sorveglianza, persuasione e inganno può espandere le minacce legate all’invasione della privacy e alla manipolazione sociale. Ci si aspettano anche attacchi che traggono vantaggio dalla capacità dell’IA, sempre più efficiente, di analizzare i comportamenti umani, i sentimenti e le credenze, sulla base dei dati disponibili.
Tutto ciò è fonte di preoccupazioni maggiori nel caso di stati autoritari, ma potrebbe anche mettere in difficoltà le capacità degli stati democratici circa il sostenere dibattiti pubblici equi e attendibili.

Come ogni strumento potente, l’utilizzo dell’Intelligenza Artificiale rispecchia le intenzioni di chi lo detiene. Conoscerne i rischi non ha lo scopo di creare allarmismi, ma semplicemente esserne consapevoli per poter restare vigili.

  • Associazione Sloweb
  • Sede legale:
  • Piazza C.L.N., 254 – 10121 Torino
  • Sede operativa c/o Escamotages
  • via Gioberti 26bis – 10128 Torino
  • Tel. 011-19916610
  • [email protected]
  • C.F. 97823610015

Scrivici


    Ho letto l'informativa privacy

    Vuoi unirti a noi?

    IBAN Banca di Cherasco

    IT38N0848701000000260101691

    image/svg+xml