L'intelligenza artificiale per prevenire e rilevare i crimini.

5 applicazioni attuali di IA per prevenire e rilevare crimini

Diverse aziende stanno sperimentando l’intelligenza artificiale (IA) per prevenire e rilevare atti criminali. Alcuni reati sono relativamente prevedibili. Tutto dipende da quanti e quali dati si ha a disposizione.

Ma non sono solo le aziende ad essere interessate a queste tecnologie. Anche i governi vorrebbero avere a disposizione questi strumenti. Innanzitutto per offrire supporto alla polizia di stato. Poi per cercare di ridurre alcuni costi. Perché si sa, il crimine ha un impatto economico sulla società.

TechEmergence ha fatto una ricerca per vedere come l’IA attualmente viene adottata per la lotta contro il crimine. Sono emerse 5 applicazioni nello specifico. Vediamo quali sono e in cosa consistono.

 

1. Rilevare armi da fuoco

L’IA può essere usata per rilevare colpi d’arma da fuoco e la loro provenienza. Ma, come accennato prima, sono necessari dati. Significa che l’IA non potrebbe funzionare se la città in cui viene adottata non dispone di strumenti connessi.

L’azienda ShotSpotter sfrutta l’infrastruttura di una smart city per triangolare la posizione di un colpo di pistola.

Secondo l’azienda, negli USA solo il 20% delle sparatorie viene segnalato alla polizia. E quelle volte in cui avviene la segnalazione, spesso le persone forniscono informazioni vaghe o inesatte.

ShotSpotter può informare la polizia in tempo reale descrivendo il tipo di pistola e la posizione della sparatoria con precisione.

I sensori rilevano il suono di un colpo di pistola e il loro algoritmo di machine learning confronta i dati per rintracciare il luogo del crimine. È come se fosse un grande orecchio specializzato nell’ascolto degli spari.

ShotSpotter offre il suo servizio in oltre 90 città tra cui New York, Chicago e San Diego. La maggior parte dei loro clienti sono negli Stati Uniti, ma lo scorso anno hanno aggiunto Cape Town (Sudafrica) alla loro lista.

 

2. Videocamere intelligenti

Dalle orecchie agli occhi. La società cinese Hikvision è una grande produttrice di videocamere di sicurezza. L’anno scorso ha annunciato l’uso di chip di Movidius (azienda Intel) per sviluppare fotocamere in grado di gestire direttamente le reti neurali artificiali.

L’azienda sostiene che la nuova fotocamera può migliorare la scansione delle targhe delle auto, eseguire il riconoscimento del viso per cercare potenziali criminali o persone scomparse ed individuare automaticamente delle anomalie, come borse non custodite in luoghi affollati. Grazie alla loro tecnologia di analisi visiva, raggiunge il 99% di accuratezza.

Movidius spiega i vantaggi di questi strumenti nel video qui sotto.

Tra i successi di Hikvision vi è il calo del 65% del crimine a Sea Point (Sudafrica) dopo l’introduzione del loro sistema di videocamere.

 

3. Prevedere i luoghi dei crimini

L’obiettivo di qualsiasi società non dovrebbe essere quello di catturare i criminali, ma impedire che i crimini si verifichino. L’intelligenza artificiale può essere d’aiuto anche in questo.

Predpol è una delle società che sta sfruttando i big data e il machine learning per prevedere quando e dove si svolgeranno attività criminali.

L’algoritmo di Predpol si basa sull’osservazione di certi crimini che tendono a ripetersi nel tempo e nello spazio. Usando i dati storici e osservando dove si sono verificati i recenti crimini, l’IA può prevedere dove si verificheranno probabilmente i crimini futuri.

Uno degli ultimi successi di Predpol è stato ottenuto a Tacoma (Washington) con un calo del 22% di furti residenziali subito dopo l’adozione del sistema.

 

4. Prevedere chi commetterà un crimine

L’IA può persino entrare più nel dettaglio. L’azienda cinese Cloud Walk Technology sta lavorando a un sistema di riconoscimento facciale per prevedere se una persona commetterà un crimine. Come è possibile?

Il sistema non analizza solo il volto delle persone, ma anche la loro camminata. Cambiamenti sospetti nel comportamento o nei movimenti delle persone verranno rilevati dall’IA. Ad esempio, un individuo che va avanti e indietro in una certa area più volte potrebbe essere segnalato come sospetto. Potrebbe essere un borseggiatore che aspetta il momento giusto o che studia l’area per agire in futuro.

Ma se l’individuo, invece, stesse aspettando semplicemente qualcuno? La società, tra l’altro, ha dichiarato al Financial Times: “Naturalmente, se qualcuno acquista un coltello da cucina è ok, ma se la persona in seguito acquista anche un sacco e un martello, quella persona sta diventando sospetta.

Oppure sta semplicemente comprando ciò di cui ha bisogno per svolgere dei lavori in casa. C’è anche questa possibilità. Questo tipo di tecnologia, in sostanza, potrebbe avere anche dei risvolti negativi. Ma questo discorso lo riprendiamo dopo.

 

5. Rilascio in attesa di giudizio e libertà condizionale

Dopo essere state accusate di un delitto, la maggioranza delle persone viene rilasciata fino a quando non si troveranno in giudizio. Decidere se rilasciare in attesa di giudizio o quale cauzione applicare non è facile per i giudici. In pochi minuti devono stabilire se una persona rappresenta un grave pericolo per la società o se può far del male a un testimone una volta rilasciato. Di certo non è un sistema perfetto.

La città di Durham, nel Regno Unito, sta usando l’IA per migliorare l’attuale sistema che decide di liberare un sospetto. Il sistema si chiama Hart e raccoglie dati sui criminali da ormai 5 anni. Hart sfrutta questi dati per prevedere se una persona è a basso, medio o alto rischio di commettere un crimine.

La città sta adottando il sistema dal 2013. Le previsioni di Hart nel classificare individui a basso rischio sono state accurate il 98% del tempo. Le previsioni nel classificare un individuo ad alto rischio sono state esatte l’88% delle volte.

 

Il problema principale

Queste tecnologie, quando funzionano bene, sono utili. Ma c’è un problema che nel settore dell’IA bisogna risolvere quanto prima. A costo di risultare monotono, devo ricordarlo perché è importante. Il problema riguarda la trasmissione di pregiudizi umani nelle IA.

Si stanno studiando diversi approcci per risolvere questo problema, per avere IA senza pregiudizi. Questi sistemi si basano su dati del mondo reale, ma se i dati del mondo reale vengono generati da poliziotti con pregiudizi, l’IA funziona male. E se funziona male si ottengono risultati opposti: disuguaglianza sociale, ingiustizia, criminalità.

I dati sono indispensabili, ma come fare per tutelare la privacy? Lo sviluppo di IA comporta inevitabilmente delle implicazioni sociali significative. Per fortuna, diverse organizzazioni ne discutono e cercano di trovare soluzioni.

Una delle ultime sollecitazioni più forti è arrivata dalla ricercatrice Microsoft Kate Crawford, la quale ha sottolineato una certa urgenza etica nello sviluppo di IA. Il suo messaggio, in sostanza, è questo: basta chiacchiere, passiamo all’azione.

Perché se ne parla da anni, ma intanto nel settore dell’IA continuiamo a fare progressi. Le aziende vendono le loro tecnologie a prescindere dai problemi tecnici ed etici che queste comportano. Gli investimenti continuano, nonostante tutto. Il rischio è quello di una grande diffusione di sistemi di IA che però possono presentare spiacevoli anomalie.

L’uso dell’IA per rilevare e prevenire la criminalità funziona solo in parte, ma è destinato ad espandersi. In questa fase a trarne vantaggio saranno soprattutto le aziende che forniscono questi strumenti ai governi.

Si spera, però, che questi benefici arriveranno per tutta la società perché l’obiettivo primario dovrebbe essere proprio questo. Meno crimini, più serenità per tutti. D’altronde dovrebbe essere il minimo vivendo in una città a cui si affidano molti dati personali, no?

La tecnologia digitale può regalarci tanto e toglierci tanto. Trovare il giusto equilibrio è una missione complicata, ma non impossibile.

Per ricevere altri aggiornamenti dal blog sull’evoluzione digitale, iscriviti alla newsletter.

Controcorrente Newsletter


Lascia un commento