• Italiano
  • English

Prevenire il crimine con l’IA

di Giulia Balbo

Ormai l’utilizzo di tecnologie IA driven come riconoscimento facciale, tecnologie di analisi immagini e video, algoritmi anti-truffa per combattere il crimine sono in uso in numerosi Paesi. In Italia, ad esempio, abbiamo visto come la Polizia Scientifica si avvalga del S.A.R.I. per le proprie indagini.

Le Intelligenze Artificiali sono estremamente preziose in questo campo: tagli e scarsità di fondi degli ultimi anni rendono necessario e vitale un efficientamento delle procedure. Le IA possono assolvere compiti ripetitivi in tempo decisamente minore rispetto all’uomo, lasciando libere le risorse laddove sono più necessarie; possono analizzare dati estraendo informazioni utili, o fornendo indicazioni su quali siano gli interventi o i compiti più urgenti da svolgere.

Senza dubbio, una collaborazione bilanciata e studiata di IA e forze di polizia può dare i suoi frutti nella risoluzione di svariati crimini. Ma può essere utilizzata addirittura nella prevenzione dei crimini? Alcuni pensano di si.

Regno Unito, Olanda, India, Cina e Stati Uniti, tra gli altri, stanno già iniziando ad implementare sistemi di IA in grado identificare i reati prima che si verifichino, stabilire la percentuale di rischio che una persona nota alle autorità effettui un determinato crimine, o individuare le zone più a rischio.

Il principio alla base delle tecnologie di prevenzione è si di impedire in primo luogo che i crimini avvengano e rendere le città più sicure, ma soprattutto di fornire supporto e assistenza ai soggetti a rischio (sia trasgressori sia vittime), andando ad intervenire con servizi di consulenza o assistenza sociale, non arresti preventivi in stile Minority Report.

Chiaramente, questo solleva diverse questioni, non solo relative alla privacy e alla libertà personale, ma specifiche rispetto all’allenamento delle IA, la possibilità di errore e su chi ricada, in tal caso, la responsabilità.

Nella maggior parte dei casi i software utilizzati sono creati e venduti da aziende con interessi commerciali, e fattori come, ad esempio, i metodi di allenamento delle IA potrebbero non essere completamente trasparenti. Questo è molto importante da tenere a mente, poiché alla base dell’efficienza di tali software, sta la loro affidabilità nel non cadere in pregiudizi improntati dall’uomo, e spesso questioni etiche e legali non sono al centro dell’attenzione di un’azienda. Inoltre, la programmazione delle IA in questo campo (come in tanti altri) è molto complessa, e molti studiosi ritengono che non dovrebbe essere fatta solo da ingegneri, ma bisognerebbe sfruttare la collaborazione di coloro che hanno a che fare con il sistema criminale tutti i giorni e lo conoscono più profondamente (come giudici, agenti…). In aggiunta, svariate associazioni a sostegno dei diritti civili hanno sollevato l’obiezione che i dati già in possesso della polizia, utilizzati per allenare le IA potrebbero generare un circolo vizioso che andrebbe a rafforzare i pregiudizi e aumentare gli errori in maniera esponenziale.

In caso di errore le conseguenze sarebbero devastanti per le persone coinvolte. L’utilizzo di tecnologie, software, numeri e percentuali non deve distrarre dal fatto che in gioco ci sono persone umane. Ad esempio, la “sicurezza matematica” di stare sventando un crimine potrebbe portare le forze dell’ordine ad agire in maniera troppo aggressiva? Come si interviene su un crimine non ancora avvenuto, per il quale il colpevole non ha ancora sviluppato emozioni, sensi di colpa?

Infine, bisogna considerare che non si può semplicemente iniziare ad usare un software complesso come se niente fosse. Non è responsabile del suo buon funzionamento solo chi programma il codice di un software, ma anche chi lo usa e applica. C’è bisogno di programmare la giusta formazione per ogni organo e membro delle forze dell’ordine che ne fa uso, chiarendo quali siano i doveri e le responsabilità d’uso. Chi non comprende il funzionamento e le conseguenze della tecnologia che usa, non dovrebbe usarla.

  • Associazione Sloweb
  • Sede legale:
  • Piazza C.L.N., 254 – 10121 Torino
  • Sede operativa c/o Escamotages
  • via Sacchi 28 bis – 10128 Torino
  • Tel. 011-19916610
  • info@sloweb.org
  • C.F. 97823610015

Scrivici


Ho letto l'informativa privacy

Vuoi unirti a noi?

Iban presso banca di Cherasco

IT38N0848701000 000260 101691