Logo Università degli Studi di Milano



 
 
Notizie  

13 dicembre 2018: Teresa Numerico: Per una critica dell’organizzazione algoritmica della conoscenza

Conferenza organizzata da Neurophilosophy Research Group

 

Teresa Numerico (Università degli Studi di Roma Tre)

Per una critica dell’organizzazione algoritmica della conoscenza

 

13 dicembre 2018, h 16:30-18:30.

Sala Enzo Paci, Direzione del Dipartimento di Filosofia, via Festa del Perdono 7, Milano.

 

Abstract

Il processo di misurazione e quantificazione è una tendenza di una certa impostazione scientifica della conoscenza. Tuttavia l’uso massiccio delle procedure di datificazione adottato nelle scienze sociali e umane produce delle potenziali storture difficili da sottovalutare. L’idea di adottare lo stesso ambito di conoscenza per trattare il comportamento delle macchine e quello dei viventi nasce dalla cibernetica, eppure Norbert Wiener (1950/1954) non voleva  applicare questi meccanismi alla psicologia e alla sociologia. La sua posizione era che i fenomeni sociali e psicologici sarebbero stati troppo complessi perché fossero oggetto di un trattamento che presupponesse un meccanismo di feedback negativo e la trattazione dei fenomeni di comunicazione come fenomeni di controllo. Fu probabilmente Licklider (1965) che introdusse l’idea che aumentando la quantità di dati disponibili su un fenomeno fosse più semplice maneggiarli attraverso le macchine piuttosto che direttamente. Il carattere di mediazione svolto dalle macchine digitali costituisce un’interfaccia le cui caratteristiche sono difficilmente sottovalutabili come suggerisce anche Giuseppe Longo nel suo articolo Critique of Computational Reason in the Natural Sciences (2009) e come segnala Gillespie nel suo saggio The relevance of the algorithms (2014) Il carattere algoritmico delle previsioni sui comportamenti umani si basa su diversi meccanismi per la costruzione di categorie entro le quali inserire le caratteristiche delle persone in modo da costituire dei modelli di comportamenti creati su dei campioni che poi devono essere generalizzati per la costruzione delle previsioni. Tali procedure di calcolo, oltre a sollevare questioni di carattere etico e politico, come è evidente per esempio nel caso ormai famoso di Cambridge Analytica, producono spesso problemi epistemologici piuttosto difficili da risolvere come si mostra in alcuni casi di trattamento automatico della testualità. Si può mostrare, infatti, che alcuni algoritmi di machine learning rischiano di applicare pregiudizi e stereotipi alle inferenze di conoscenza che fanno basate su associazioni statistiche del linguaggio. Questi problemi si evidenziano nel trattamento automatico di grandi corpora testuali. Lo Stanford Natural Language Processing Group ha creato, per esempio, uno dei più famosi algoritmi per processare le parole e misurare la loro distanza, ai fini di comprendere le loro relazioni semantiche, che si chiama GloVe (Global vectors for word representation). GloVe è stato addestrato su grandi corpora come Wikipedia e Gigaword. Il problema di usare la distanza tra le parole per addestrare un algoritmo non supervisionato è che c’è la concreta probabilità che inserisca nella sua base di conoscenze tutti i pregiudizi e gli stereotipi che si trovano nella base dati di riferimento, come è dimostrato in (Caliskan et al. 2017, Sumpter 2018). Il tentativo di catturare automaticamente il significato del testo scritto attraverso questi algoritmi statistici rischia di creare delle mostruosità a livello epistemologico, sebbene stia solo introiettando gli stereotipi che le persone hanno creato. Tuttavia le persone hanno una capacità di interpretare il testo al di fuori del suo carattere pregiudiziale e possono esercitare la critica e la loro soggettiva interazione con i testi oggetto di esame, caratteristiche di cui gli algoritmi statistici di machine learning sono del tutto privi. Dobbiamo quindi comprendere meglio il funzionamento di questi dispositivi e soprattutto richiedere che non siano protetti dal segreto (Pasquale 2016) per decidere in che direzione e in quali ambiti sia lecito e affidabile utilizzare la delega in favore delle macchine e di chi le programma.  Non possiamo dimenticare la lezione di Turing (1948) secondo cui la definizione di intelligenza è elastica e può dipendere dall’ignoranza di chi la attribuisce ad altri agenti umani o meccanici che siano. 

 

 

La partecipazione è fortemente raccomandata agli allievi del Scuola di Dottorato in Filosofia e Scienze dell’Uomo.

Tutti gli interessati sono invitati a partecipare. Ingressso libero fino ad esaurimento dei posti disponibili.

13 dicembre 2018
Torna ad inizio pagina