I comuni si affidano sempre più agli algoritmi “predittivi” e alla profilazione del rischio per rilevare frodi all’assistenza sociale, anticipare il pericolo di disordini e il rischio che alcuni cittadini si indebitino, dice NOS dopo un’indagine svolta insieme a emittenti pubbliche regionali.

Almeno 25 comuni si affidano agli algoritmi, utilizzando “profili di rischio”, ossia il meccanismo che ha portato allo scandalo dei sussidi. Secondo l’amministrazione, in quel caso, la doppia nazionalità rappresentava un fattore di rischio più elevato. L’anno scorso, il giudice ha respinto il sistema di profilazione SyRI, in parte perché non era sufficientemente trasparente e c’era il rischio di discriminazione.

“Questa notizia è motivo di preoccupazione”, afferma ad NOS l’avvocato Anton Ekker, che ha vinto la causa contro il sistema SyRI. “Il governo ha promesso solennemente che non ci sarebbe stato un nuovo scandalo dei sussidi. Ma non sappiamo cosa fanno i comuni”.

Secondo le amministrazioni, l’utilizzo della tecnologia porta solo vantaggi ma il rischio che a decidere il profilo di un truffatore sia un computer, è molto elevato.

Nello specifico, nei 25 comuni analizzati, i cittadini sono classificati in base ai profili, a volte per poterli aiutare più rapidamente, ma anche per determinare, ad esempio, la possibilità che commettano frodi. In alcuni casi si tratta ancora di esperimenti e progetti pilota, dice NOS.

Ad esempio, i comuni di Nissewaard e Brielle, con l’ausilio dei servizi di una società esterna, creano profili di rischio per i beneficiari dell’assistenza sociale. In base al punteggio di rischio, viene determinato se un file deve essere ulteriormente esaminato. Anche Deventer sta lavorando in questo modo, sebbene il progetto sia ancora sperimentale.

Il comune di Twenterand crea profili di cittadini, ma  per mappare debiti e “problemi di assistenza”. E i comuni del Limburgo di Leudal, Nederweert e Maasricht impiegano tali sistemi per rilevare le minacce della criminalità. E Breda utilizza l’intelligenza artificiale per indagare se ha senso, ad esempio, demolire o costruire determinati tipi di case, al fine di migliorare la qualità della vita.

Ma i critici mettono in guardia dal rischio di discriminazione perché gli algoritmi vengono, spesso, alimentati dai pregiudizi di persone in carne ed ossa, dice NOS. Inoltre, manca chiarezza sul funzionamento preciso degli algoritmi e sulla profilazione del rischio. Ad esempio, il comune di Nissewaard non vuole rivelare come viene determinato se qualcuno è un truffatore, in modo da non rendere i truffatori “più scaltri”.