Un passato nell’hacking, nell’intelligence e nella computer forensics e oggi con la reputazione digitale cerca di capire e modificare la percezione di marchi e persone. Al Galileo Festival Matteo Flora ieri, sabato 11 maggio, ha parlato di hacker, democrazia e fake.
Matteo Flora, quali gli inganni della rete?
« Poco di quello che facciamo e delle decisioni che prendiamo è libero arbitrio. Alcuni meccanismi influenzano chi siamo e cosa pensiamo e come vediamo il mondo in cui viviamo. Un concetto di realtà non esiste più e infatti oggi si parla di verità alternativa».
Democrazia illusoria?
«Viviamo in tante piccole gabbie che ci siamo costruiti e che sono la rappresentazione dell’idea che abbiamo della realtà. E tutto questo viene utilizzato in politica e in comunicazione in modo abbastanza becero e strutturato».
Possiamo difenderci?
«Non ancora. L’utente non sa che buona parte di quel che pensa e gli viene raccontato è alterato. Se per le fake news possiamo ancora fare qualcosa, documentarci ad esempio, con gli algoritmi di persuasione è difficile. Siamo in balia di questi sistemi».
Esempi di verità alternativa?
«”Abbiamo abolito la povertà” . Ovvio che non è così. Eppure la gente ci crede perché il messaggio ha a che fare con delle distorsioni (bias, ndr) che ci fanno tener per buona la prima opinione su un argomento. Non importa che sia vero. Importa che l’impressione che riceviamo sia conforme alla narrazione. Poi c’è l’utilizzo smodato dei bot, programmi che girano in rete e che lavorano sull’”effetto carrozzone” per cui siamo portati a ritenere vera l’opinione più diffusa: se migliaia di persone non la pensa come me inizio a pensare che sia io a sbagliare».
Quindi ragioniamo come animali in branco?
«Sì e come animali tendiamo a fidarci di ciò che il branco dice. Sono procedure di sopravvivenza cui tendiamo ancora a uniformarci. Oggi però non sono più umane, sono automatiche. L’istigazione all’odio verso un’etnia o il diverso, la presa in giro di un avversario sono tutte tecniche conosciamo dal nazismo in poi. Oggi vengono utilizzate grazie a algoritmi».
Soluzioni?
«Normare, ad esempio. Ma non è una scelta facile perché il rischio è di creare un ministero della verità orwelliano. Davvero lo vorremmo? Meglio forse allenarci al dubbio e sensibilizzare sul fatto che esistono meccanismi psicologici che modificano la nostra percezione».
Sviluppando una mente critica?
«Sì ma verso noi stessi. Abbiamo perso l’abitudine a pensare di avere torto».Si occupa di “reputazione digitale”.
In cosa consiste?
«Costruiamo strategie di comunicazione efficaci utilizzando i dati disponibili online su un prodotto, un servizio o su cosa pensano le persone su un argomento».
Usate intelligenza artificiale e big data?
«Sì, per raccogliere informazioni, analizzarle e proporre ai clienti strategie».
Come si supera il problema delle distorsioni presenti nei big data?
«I dati sono raccolti sulla base di dati sperimentali riuniti da esseri umani. Come tali sono portati ad avere gli stessi bias che ha un essere umano. Se l’essere umano è razzista la macchina sarà razzista. Stiamo lavorando per far fare alla macchina di meglio ma è difficile».
Reputazione e politica: chi comunica meglio?
«Chi usa meglio il digitale. Destre storiche e destre sovraniste hanno adottato mezzi digitali in modo capillare ed efficace. Tutte le altre forze politiche stanno cercando di adeguarsi».In Giappone si è già alla Society 5.0.
Qui?
«In Italia ci stiamo spostando dalla rivoluzione industriale al 4.0. Le supersmart technology, tecnologie più brave dell’essere umano nel gestire un mondo a misura di essere umano, saranno il passo successivo».
“Estote parati” . Così è solito concludere i suoi video. Siate pronti a cosa?
«Al cambiamento. Si deve esser pronti a cogliere le opportunità e le sfide».
*Il Mattino di Padova, 7 maggio 2019