Cina: il Grande Fratello Cinese ora va a caccia di emozioni

12 mins read
uiguri cina

Cina: il Grande Fratello Cinese ora va a caccia di emozioni – L’intelligenza artificiale legge gli stati d’animo per controllare i cittadini. Le tecniche di sorveglianza sono ormai un affare da 36 miliardi di dollari. Primi clienti, gli Usa. E gli uiguri fanno da cavie.

Ottocento milioni di telecamere, app che caricano dati, spesso senza il consenso degli utenti, uno Stato che tutto vede e che, da sempre, tutto controlla. La Cina è uno dei massimi esempi al mondo di Stato di sorveglianza: la tecnologia, e lo straordinario progresso che l’ex Impero celeste ha messo in campo negli ultimi anni, hanno consentito al Partito comunista cinese di ampliare le maglie del controllo, allungandone tempi (24 ore su 24) e potenzialità. Pechino però ha mantenuto una prassi con la quale introduce nel paese tutta una serie di novità, in via sperimentale; solitamente queste «prove» avvengono sul proprio territorio, in altri casi si spostano in paesi con i quali la Cina ha forti rapporti diplomatici ed economici (ad esempio in Africa). Lo scopo è assicurarsi che certi strumenti funzionino per poi allargarne l’utilizzo ad altre zone.

La regione nordoccidentale dello Xinjiang costituisce, da tempo, un vero e proprio laboratorio: prima di politiche di controllo fisico (posti di blocco, alto numero di stazioni di polizia, indagini anti-terrorismo), poi via via di politiche di sorveglianza sempre più sofisticate. L’origine di questa ossessione securitaria da parte della leadership del Partito comunista risiede nel fatto che in questa regione vive una minoranza etnica turcofona e musulmana (gli uiguri) nella quale Pechino identifica «i tre mali»: terrorismo, separatismo, proselitismo religioso.

Ovviamente le accuse di terrorismo, sia interno, sia estero a causa della partecipazione (sui numeri però non c’è certezza) degli uiguri alle azioni dell’Isis come foreign fighters, rientrano all’interno di ampie possibilità fornite dalla legge cinese; rimane però il fatto che in Xinjiang gli arresti di massa e le detenzioni hanno portato la Cina ad essere accusata di gravi violazioni dei diritti umani (e di genocidio, da parte degli Usa). Nel rosario di tecnologie utilizzate per controllare e reprimere gli uiguri, da qualche tempo c’è anche l’utilizzo della tecnologia basata sull’Intelligenza artificiale capace di riconoscere le emozioni.

Secondo un ingegnere che avrebbe installato queste apparecchiature in Xinjiang, «il governo cinese usa gli uiguri come soggetti di prova per vari esperimenti, proprio come i ratti vengono usati nei laboratori». E delineando il suo ruolo nell’installazione delle telecamere nelle stazioni di polizia della provincia, ha raccontato alla Bbc di aver posizionato «la telecamera per il rilevamento delle emozioni a tre metri dal soggetto. È simile a una macchina della verità ma di tecnologia molto più avanzata». Ha poi aggiunto che il sistema è addestrato a rilevare e analizzare anche i minimi cambiamenti nelle espressioni facciali.

Secondo le sue affermazioni, «il software crea un grafico a torta, con il segmento rosso che rappresenta uno stato mentale negativo o ansioso». In Xinjiang da tempo la Cina sperimenta tecnologie di sorveglianza in funzione repressiva per testarne l’efficacia in due direzioni: vendere i prodotti all’estero, allargare il loro utilizzo anche in altri territori del paese. Già qualche anno fa Human Rights Watch aveva denunciato il programma di raccolta dati, compreso il Dna, in atto nella regione autonoma cinese, specie nella declinazione volta a creare modelli predittivi: «Per la prima volta, avevano scritto i ricercatori di Hrw, siamo in grado dimostrare l’uso, da parte del governo cinese, di Big Data e di una predicting policy che non solo viola in maniera evidente i diritti alla privacy ma autorizza i pubblici ufficiali a procedere ad arresti arbitrari».

Sugli avanzamenti di queste potenzialità in Cina, Pechino non fa mistero, benché le presenti in toni tutt’altro che inquientanti: il quotidiano nazionalista Global Times nel marzo 2021 ha sottolineato questo processo, sottolineando diversi utilizzi di queste tecnologie decisamente meno traumatici rispetto allo Xinjiang, ricordando come sia piacevole tornare a casa «stanco e depresso dopo una lunga giornata di lavoro» e chiedere «allo stereo intelligente di far partire una canzone». Lo stereo «riconosce immediatamente dalla voce lo stato emotivo e può fare partire subito una melodia adatta all’umore».

Queste scene «che ricordano la fantascienza» sono in aumento nella vita quotidiana in Cina come dimostrano le attività di Taigusys, un’azienda di Shenzhen al cui ingresso una serie di telecamere catturano le immagini degli ospiti su un grande schermo nel quale sono mostrati alcuni dati, dalla temperatura corporea, a stime sull’età e altre statistiche. Chen, il direttore generale dell’azienda, ha raccontato al Guardian che «il riconoscimento delle emozioni è un modo per prevedere comportamenti pericolosi da parte dei detenuti, rilevare potenziali criminali ai posti di blocco della polizia, o anche alunni problematici nelle scuole o persone anziane fragili nelle case di cura».

A proposito di scuole, a febbraio di quest’anno si è discusso molto del software 4 Little Trees, creato dalla startup con sede a Hong Kong Find Solution AI. Come riportato da alcuni media locali, «gli studenti lavorano su test e compiti a casa sulla piattaforma come parte del programma scolastico. Mentre studiano, l’AI misura i punti muscolari sui loro volti tramite la fotocamera del computer o del tablet e identifica le emozioni tra cui felicità, tristezza, rabbia, sorpresa e paura».

Tutto questo è anche un business, perché la Cina non usa questi sistemi solo sul proprio territorio ma li esporta anche, pur all’interno di un mercato guidato ancora dagli Stati Uniti e che da solo dovrebbe arrivare a un giro di 36 miliardi di dollari circa entro il 2023. Si stima che la crescita sarà di circa il 30% all’anno, nonostante alla base di questi strumenti ci siano stereotipi, bias e gravi rischi per i diritti e la privacy.

Tra i principali attori non c’è dunque solo la Cina, a conferma di come la sorveglianza sia ormai una caratteristica strettamente intrinseca alle nostre società e di come l’anno pandemico non abbia che aumentato l’uso di tecnologie per tracciare i nostri comportamenti. Proprio durante quest’anno caratterizzato da lockdown, smart working e didattica a distanza, le aziende tecnologiche hanno lanciato i loro software di riconoscimento delle emozioni come un modo per monitorare lavoratori in smart working e studenti in Dad.

Ma anche prima del Covid-19 il settore dimostrava già di essere in buona salute: nel gennaio 2016, Apple aveva acquisito la start-up Emotient, secondo la quale il proprio software sarebbe in grado di rilevare le emozioni dalle immagini dei volti. Secondo il Financial Times «i giganti della tecnologia americana, tra cui Amazon, Microsoft e Google, offrono tutti un’analisi emotiva di base, mentre altre aziende piccole come Affectiva e HireVue la adattano a settori specifici come quello automobilistico, degli inserzionisti e per assunzioni di lavoro». Disney ha utilizzato il software per testare le reazioni del pubblico a una serie di suoi film. Le case automobilistiche come Ford, BMW e Kia Motors vogliono usarlo per valutare la prontezza del conducente.

Nel 2020 Spotify aveva annunciato la sua sfida ad Alexa e Siri con un proprio assistente vocale «all’avanguardia», ottenendo un brevetto che renderà l’assistente vocale in grado di percepire le emozioni dell’utente sulla base delle proprie scelte musicali (emozioni supposte, ovviamente, perché non è detto che il proprio stato d’animo coincida con una canzone che si ha voglia di ascoltare in un dato momento). Dovremo poi prepararci a essere scannerizzati e sorvegliati anche nei nostri sentimenti, o espressioni del volto, quando saremo all’interno di spazi pubblici, come dimostra l’utilizzo dei sistemi di riconoscimento emozionale da parte dalla polizia del Lincolnshire nel Regno Unito per identificare le persone sospette (le telecamere erano già state utilizzate a Piccadilly Circus a Londra per analizzare le reazioni emotive delle persone alle pubblicità sui grandi cartelloni pubblicitari).

Sullo sfondo di tutto questo profluvio di fantascienza che diventa realtà c’è una grande presunzione, quella di credere che le nostre emozioni non costituiscano un mistero, né per reprimere, né per venderci più prodotti e siano anzi a disposizione di Stati e aziende per continuare a estrarre da noi altro valore, mettendo a profitto anche la nostra vita privata o il nostro tempo libero o peggio ancora i nostri stati d’animo. A questo proposito dunque, tra tentativi di regolamentazione e spinta del mercato, dovremmo probabilmente affidarci a quanto sostiene Frank Pasquale, tra i maggiori esperti al mondo in materia di tecnologia, di cui è appena uscito “Le nuove leggi della robotica” (Luiss University Press).

Secondo Pasquale, l’AI per ora è complementare all’attività umana e dovremmo dunque difendere lo status quo, in alcuni casi limitandone fortemente l’uso. Ricordando, attraverso gli esempi di sistemi per monitorare le emozioni delle persone nei colloqui di lavoro (già in utilizzo a Oriente come in Occidente), che tutto questo «è molto lontano dall’uso dei sistemi di riconoscimento delle immagini in medicina», sul cui progresso concordiamo tutti. Scoprire un tumore, scrive Pasquale, è decisamente più utile che scoprire «un pelandrone». Ma forse produce meno profitto.

Espresso

Lascia un commento

Your email address will not be published.

Latest from Blog