Prevenire i reati con un cervello elettronico

La capacità computazionale moderna consente alle macchine di apprendere autonomamente nuove nozioni e applicarle per la risoluzione di problemi. Quali sono i vantaggi e gli svantaggi di un sistema che affida la sicurezza umana alla tecnologia?

Quando si utilizzano insieme i termini “intelligenza” e “ar­tificiale”, si indica una branca delle tecnologie, e del diritto a esse applicato, che riguarda la capacità di una macchina di imitare il funzionamento del cervello umano, apprendendo autonomamente nuove nozioni da cui far derivare scelte e azioni. Contrariamente a quanto si può pensare, l’accostamento delle due parole non è ancora sinonimo di intelligen­za intesa come “creatività”, poiché quest’ultima presuppone anche una presa di coscienza della propria esistenza che, al momento, non rientra tra le capacità delle macchine, influenzate e li­mitate nelle scelte dai programmi (intesi come sequenze di istruzioni) sviluppati dall’uomo.

Ciò che realmente consente di fare l’intelligen­za artificiale (AI), è analizzare enormi quantità di dati in poco tempo e, sulla base di modelli matematici o statistici, selezionare l’opzione più idonea a risolvere un problema. La capacità computazionale dei moderni elaboratori rende le macchine anche in grado di integrare basi di dati su cui vanno a lavorare con ulteriori ele­menti, non introdotti dall’uomo ma acquisiti autonomamente, influenzando così le successive scelte. Gli archivi originali – e, conseguentemen­te, gli esiti delle elaborazioni statistiche e delle logiche matematiche – ne risultano a loro volta modificati.

La crescente applicazione dell’AI ai più comuni aspetti della vita quotidiana e della Pubblica Amministrazione ha spinto il Parlamento Eu­ropeo a interessarsi dei risvolti giuridici e pratici provocati dall’introduzione delle funzioni auto­matiche delle macchine nei processi decisionali, con particolare attenzione alle responsabilità connesse e alla capacità di ipotizzare (non pre­vedere, la differenza è sostanziale) cosa accadrà nel futuro.

A partire dai sistemi di assistenza vocale, già disponibili alla massa dei consumatori, fino alle auto a guida autonoma, un primo impatto rile­vante sui cittadini è quello delle responsabilità connesse all’uso di prodotti basati sull’intelli­genza artificiale; infatti, se è vero che l’ultimo venditore risponde comunque dei vizi del pro­dotto nei confronti del consumatore (almeno in Europa), è altrettanto vero che l’analisi degli elementi alla base di una qualsiasi azione giu­diziaria non è attualmente alla portata di ogni cittadino, considerando i costi da sostenere per perizie e accertamenti tecnici e scientifici e i non pochi ostacoli posti dai produttori a tutela della loro proprietà intellettuale e industriale.

Nel settore della sicurezza, l’intelligenza artifi­ciale è utilizzata ormai da anni per la rilevazione delle infrazioni, attraverso l’analisi dei compor­tamenti degli automobilisti (autovelox, sistemi di controllo della velocità media, rilevazione delle infrazioni al semaforo e nelle zone a traf­fico limitato ecc.), cui consegue l’emissione di un verbale di contestazione dell’infrazione; tale documento, sebbene successivamente verificato da un pubblico ufficiale, viene elaborato e por­tato all’attenzione del cittadino da un sistema completamente automatico.

La soluzione “Made in USA”

Di particolare interesse, anche per gli impatti che potrebbero avere sulla vita dei cittadini, sono gli esperimenti avviati da alcuni settori delle forze dell’ordine per la prevenzione dei reati, basati sull’analisi di grandi quantità di dati provenienti dagli archivi delle procure. Le modalità di acquisizione ed elaborazione dei dati sono sostanzialmente due.

Negli Stati Uniti, le statistiche sui reati commessi nei singoli quartieri o zone vengono utilizzate per organizzare i controlli sul territorio. Si tratta di una soluzione che ha sollevato diverse critiche, per l’elevato rischio di pregiudizio a scapito dei diritti dei cittadini, che potrebbe innescarsi (e, in alcuni casi, è già stato rilevato sul campo) a causa dello stretto legame tra i controlli e i reati.

È infatti emerso che l’attenzione determinata dal software su particolari zone della città porta a un aumento dei controlli e, conseguentemente, a un aumento delle contestazioni a livello locale nelle aree interessate. Tale evidenza rischia però di determinare un effetto a spirale, alterando le statistiche e, conseguentemente, le successive disposizioni sui controlli, che arriverebbero a concentrare i presidi militari su alcuni quartieri a discapito di altri.

Emerge anche, dall’analisi dei primi risultati del­le varie sperimentazioni, che i software finiscono per concentrarsi su alcune etnie che sono ricono­sciute come maggiormente a rischio di commet­tere reati, non per una propensione genetica al crimine ma semplicemente perché nei quartieri disagiati – dove è maggiore la presenza di taluni gruppi etnici – perfino le denunce risentono della maggiore litigiosità interna (per esempio, sembra che gli afroamericani si denuncino molto più spesso tra loro rispetto ad altre realtà o a quanto avviene in gruppi etnici diversi).

Incide inoltre sulle statistiche la maggiore o minore fiducia del cittadino nella giustizia, con il rischio di andare a penalizzare i soggetti che ritengono inutile o troppo oneroso il ricorso alle forze dell’ordine e alla magistratura (cosa che, per esempio in Ita­lia, è purtroppo evidente per i reati minori e per taluni reati a sfondo sessuale).

Ls soluzione “Made in ITALY”

Tutti questi elementi stanno consigliando di abbandonare lo sviluppo di software predittivi legati ad algoritmi di analisi delle denunce perve­nute e dei procedimenti attivati (troppe variabili influenzano negativamente i risultati) per con­centrarsi, invece, sulla soluzione sviluppata in Italia da Marco Venturi, graduato della Polizia di Stato successivamente dedicatosi all’impren­ditoria digitale.

L’intuizione di Venturi, che oggi guida una start up finalizzata allo sviluppo di un software di analisi e prevenzione dei reati (utilizzato – in via sperimentale – nella città di Milano), è stata quel­la di analizzare i casi già pervenuti all’attenzione delle forze dell’ordine e dell’autorità giudiziaria, i cui elementi di prova sono cristallizzati nei fa­scicoli processuali, mettendoli in relazione per tracciare un profilo criminale del soggetto re­sponsabile delle violazioni e prevederne i futuri comportamenti.

Questo approccio, più analitico e meno basato sulle statistiche, consente di mettere in relazio­ne eventi anche diversi e distanti tra loro, sia geograficamente che nel tempo, ricostruendo sequenze di reati che seguono schemi comuni o hanno molte caratteristiche che coincidono. Salvo rare eccezioni, l’analisi di tali elementi por­ta a individuare una sorta di “firma” dei delitti, che permette anche di prevedere futuri compor­tamenti e fornire elementi utili alle indagini e alla prevenzione di ulteriori crimini.

Inoltre, il sistema non è discriminatorio, nel senso che utilizza dati come l’etnia, l’orienta­mento religioso, la frequentazione di determinati ambienti o territori esclusivamente per fornire elementi di valutazione dei possibili sviluppi dell’attività criminale.

Com’è evidente, infatti, la condotta già accer­tata di un soggetto di etnia caucasica, abituato a utilizzare armi bianche e auto giapponesi per compiere rapine ai danni di uffici postali perife­rici, non è discriminatoria nei confronti di tutte le persone di etnia caucasica o dei territori pe­riferici che ospitano uffici postali; è invece un dato che consente alle forze dell’ordine di notare se, all’esterno di un ufficio postale di periferia, c’è un’auto giapponese con il motore acceso e un soggetto di etnia caucasica che si sta avvici­nando all’entrata.

Chi comincia bene…

Il vero problema dell’intelligenza artificiale è la re­alizzazione degli algoritmi alla base delle decisioni che permettono al sistema di autoalimentarsi, ac­crescere le proprie competenze e operare in auto­nomia dopo una necessaria fase di apprendimento e collaudo. Un’impostazione mentale “discrimi­natoria” del gruppo di progettazione e sviluppo inevitabilmente si ripercuoterà sull’elaborazione dei dati, sul peso dato loro nell’orientare le scelte, sull’etica e l’equilibrio di determinate conclusioni, con un effetto a cascata sempre più incontrollabile e imprevedibile a mano a mano che aumentano i dati disponibili. È quindi particolarmente impor­tante analizzare, in fase iniziale, i risultati che si intendono ottenere e, soprattutto, indicare chia­ramente i limiti che si intendono porre all’azione automatica del sistema informatico.

Da questo punto di vista, l’esperimento della procura di Shanghai Pudong, che ha sostituito l’attività del Pubblico Ministero con un sistema che, analizzando gli elementi messi a sua dispo­sizione dalle forze dell’ordine, elabora le imputa­zioni e dispone misure cautelari, è allarmante, sia per i risvolti di natura etica sia per la reale efficacia del sistema. Innanzitutto, le scelte del “PM digitale” sono basate su circa 17.000 fascicoli (riferiti al periodo 2015-2020) già presenti negli archivi dell’ufficio giudiziario e quindi solo par­zialmente attendibili (basta pensare al settore delle tecnologie informatiche, dove cinque anni corrispondono a un’era geologica). Inoltre, molti si chiedono chi risponderà per gli eventuali errori commessi dal sistema: il produttore o la procura?

Secondo le dichiarazioni del ricercatore che ha guidato il team di sviluppo, l’efficienza del si­stema è già stata testata nelle carceri e ha resti­tuito una precisione del 97%. Tuttavia, anche la proporzione di tre soggetti sanzionati ingiusta­mente rispetto ai 97 che meritavano la punizione non è un risultato accettabile su grandi numeri (diventano 3000 su 100.000 persone).

Infine, resta il dubbio sull’efficienza di un algorit­mo studiato per controllare soggetti già classifi­cati come criminali da una corte e cittadini che, invece, non hanno precedenti e quindi dovreb­bero essere valutati anche sulla base di criteri discrezionali quali l’atteggiamento collaborativo o ostico, il dolo o colpa nella perpetrazione del crimine, la casualità dell’evento, le ragioni di giu­stificazione, la volontà di espiazione; si tratta di variabili che una macchina, ovviamente, non è in grado di gestire (almeno per ora).

Pubblicato
Categorie: News
Apri la chat
serve aiuto?
Ciao
ti posso essere di aiuto?