Quelle telecamere “intelligenti” di San Pietroburgo in grado di distinguere i passanti per etnia


Quella che in Occidente, soprattutto in Europa, è considerata una delle possibili derive del ricorso al riconoscimento facciale a San Pietroburgo sembra destinata a diventare lo scopo voluto dall’amministrazione comunale. Il punto di Guido Scorza per la rubrica Privacy Weekly

Nel corso dell’anno 8mila delle 120mila telecamere che sorvegliano San Pietroburgo sembrano destinate a diventare più “intelligenti” – si fa per dire – perché capaci di riconoscere e classificare i passanti per etnia.

guido scorza privacy weekly

Se già l’associazione della parola “intelligenza” con l’aggettivo “artificiale” è ambigua e ingannevole, definire intelligente un sistema di riconoscimento facciale che ha uno scopo del genere è a voler essere generosi un ossimoro. Quello che altrove – Europa inclusa – è considerato uno dei rischi di deriva del ricorso al riconoscimento facciale che suggeriscono di limitarne il ricorso a casi eccezionali, a San Pietroburgo sembra destinato a diventare addirittura lo scopo scientificamente perseguito dall’amministrazione comunale.

Combattere la “formazione di enclave etniche” e consentire l’adozione di “misure preventive tempestive per prevenire la tensione sociale nell’area”, sono gli obiettivi dichiarati perseguiti. Persino inutile chiedersi se sia tutto qui o ci sia dell’altro. Inutili, sin qui, le proteste delle associazioni nazionali e internazionali per la difesa e promozione dei diritti fondamentali.

Il sistema è utile, è tecnicamente all’avanguardia e la licenza è già stata acquistata. Il dado è tratto, insomma. E pazienza se è un dado che mostra il volto peggiore dell’intelligenza artificiale. Quello meno intelligente – ammesso che ci sia davvero qualcosa di intelligente – dell’intelligenza artificiale. Anzi, per dirla senza giri di parole, quello meno umano.

san pietroburgo
Una webcam puntata sulle strade di San Pietroburgo

Anche se non è, naturalmente, corretto prendersela con gli algoritmi giacché a mostrare un volto poco intelligente e niente affatto umano e chi gli algoritmi vuole usarli per classificare e distinguere una comunità che vive nella stessa città per etnia. Ma temo sbaglieremmo a scagliare pietre – anche solo in senso figurato” contro l’amministrazione di San Pietroburgo accusandola di poca attenzione alla privacy e agli altri diritti umani.

Perché, sfortunatamente, la vicenda sembra figlia di un principio che va diffondendosi rapidamente in giro per il mondo, Europa e Italia, incluse: quello secondo il quale ciò che è tecnologicamente possibile dovrebbe considerarsi anche giuridicamente legittimo e democraticamente sostenibile se indirizzato al raggiungimento di finalità condivisibili [ndr e nel caso di San Pietroburgo non è neppure facile convenire sulla bontà del fine].

Leggi anche: Ci mancava solo il GPS che ti localizza attraverso i (tuoi) batteri…

E, purtroppo, questo principio è dilagante: anche da noi, sempre più spesso, le esigenze di maggior sicurezza nelle nostre città vengono brandite, proprio allo stesso modo, da amministrazioni locali e centrali, per giustificare il ricorso a soluzioni diversamente intelligenti capaci di produrre conseguenze devastanti per i diritti e le libertà delle persone. Le classiche cure peggiori dei mali che si vorrebbero curare. E anche da noi, sempre più spesso, prima si conclude il contratto per l’acquisto della tecnologia e poi ci si pone il problema del suo impatto sulla società, sulle persone, sulla loro dignità, i diritti e le libertà.

Ecco, forse, vale la pena prendere la storia di San Pietroburgo come monito per fermarsi un istante a riflettere su dove stiamo andando e, soprattutto, dove vogliamo andare. L’intelligenza artificiale – perché tanto ormai dobbiamo rassegnarci a chiamarla così – è un veicolo che può portarci verso un mondo migliore o uno peggiore.

Dipende solo dalla direzione nella quale decidiamo di guidarla.





Source link

Scroll to Top
Apri la chat
1
KingTech Supporto 24/7
Ciao 👋
Possiamo aiutarti?