Adriano Fabris – LO SPAZIO DELLE HUMANITIES NEGLI AMBIENTI TECNOLOGICI

(Estratto da Paradoxa 3/2022)

Davanti a un bivio

Come spesso è accaduto in passato, nella storia del pensiero e non solo, anche oggi ci troviamo di fronte a un bivio. La strada che verrà scelta a questo bivio inciderà sulla mentalità e sui comportamenti delle generazioni future. Solo che, come in precedenza spesso è avvenuto, non ci rendiamo conto che è necessario prendere una decisione. Non avvertiamo il fatto che, almeno in parte, possiamo scegliere da quale parte andare.

Il bivio di cui parlo riguarda il modo in cui consideriamo lo sviluppo attuale e il futuro delle nostre conoscenze. Parlo dell’acquisizione, dell’elaborazione, dell’utilizzo e della portata delle conoscenze umane. Parlo del significato stesso del termine ‘conoscenza’. L’alternativa è quella fra una conoscenza sviluppata dagli esseri umani, riferita agli esseri umani ed estesa da essi al mondo, e una conoscenza che altre entità sono in grado di elaborare e che non necessariamente è posta sotto il controllo umano. La prima forma di conoscenza è il sapere delle humanities; la seconda è quella attivata dalle tecnologie.

Dobbiamo approfondire meglio, sia pur in breve, la differenza fra queste due forme e il modo in cui esse, oggi, s’intrecciano fra loro. Sono gli esseri umani, certamente, gli sviluppatori anche di quel sapere che ha portato all’elaborazione delle conoscenze tecnologiche. Sono loro – siamo noi – coloro che, per dirla con Wiener, hanno creato il Golem (cfr. N. Wiener, Dio & Golem s.p.a., Bollati Boringhieri, Torino 1991). Ma questa potenza creativa di cui abbiamo dato prova, lungi dall’esprimere un’autoaffermazione gioiosa e positiva nel senso di Nietzsche, può comportare – al modo, quasi, di un’eterogenesi dei fini – un senso di umiliazione: l’emergere cioè di un dislivello in cui non già è il creatore, bensì è la creatura a collocarsi in una posizione superiore. È il «dislivello prometeico» di cui parla Anders (G. Anders, L’uomo è antiquato, voll. I e II, Bollati Boringhieri, Torino 2007).

Sapere, saper fare, saper come fare

Come si è imposta questa differenza? Come si è verificata questa trasformazione nell’ordine delle conoscenze? Tutto ciò è avvenuto attraverso il progressivo passaggio dalla tecnica alla tecnologia. Ne ho già parlato, più estesamente, su «Paradoxa» (2/2019, pp. 17-32).

La tecnica è una forma del sapere umano. Si tratta di un sapere pratico, legato cioè ad applicazioni concrete e finalizzato all’ottenimento di specifici prodotti. È il sapere, per esempio, di chi sa cacciare o pescare: cioè di chi conosce – appunto – le tecniche adeguate a compiere queste azioni, raggiungendo efficacemente gli scopi che esse si prefiggono, e i mezzi da usare alla bisogna. La tecnica, in altre parole, delinea un ambito di conoscenza in cui il sapere diventa un saper fare, e il saper fare implica nel contempo la necessità di affrontare il problema del saper come fare. Competenza metodica e competenza strumentale, insomma, sono entrambe richieste: per esempio nell’apprendimento di un mestiere.

In uno dei primi bivi in cui si è trovato, più o meno consapevolmente, l’essere umano, il sapere tecnico, che poteva essere trasmesso soprattutto con una pedagogia imitativa, viene considerato non tanto isolatamente, quanto inserendolo in un percorso più ampio di sviluppo della conoscenza umana. Tale percorso corrisponde a quello che dall’animale porta all’essere umano e che permette, in parallelo, di definire l’ordinamento di una società: quella società che sul sapere migliore dovrebbe appunto essere costruita. Aristotele, all’inizio del primo libro dei suoi trattati di Metafisica (A, 1), delinea proprio questo percorso. Esso procede dalla sensazione all’esperienza sensibile, dall’acquisizione della capacità tecnica – la techne dell’artigiano – all’ottenimento di una competenza scientifica svincolata da risultati immediati, fino a giungere, come punto di arrivo, allo stadio della contemplazione: un’attività che è simile a quella che è propria degli dei. In tal modo Aristotele fornisce sia ai suoi concittadini, sia ai posteri un modello articolato di conoscenza che, nel suo carattere gerarchico, è anche un modello di polis.

Tale modello viene messo in questione, però, ogni qual volta il sapere è posto al servizio del fare: ogni qual volta, cioè, il sapere deve risultare efficace, efficiente, produttivo, applicativo. Nel Cinquecento tali caratteristiche vengono riconosciute come sempre più necessarie. Non si pensa tanto a come si va in cielo, ma a scrutare che cosa c’è nel cielo e al modo in cui farlo con la maggiore precisione. Si pensa, ancora di più, a quello che, dalla conoscenza del cielo, possiamo ricavare per abitare la terra e andare per i mari.

Ciò che ora s’annuncia è un altro bivio. E viene intrapresa un’altra strada. La tecnica diventa qualcosa d’indipendente. Si svincola dall’ordinamento aristotelico e dalla subordinazione al sapere astratto. Più precisamente, il sapere astratto finisce per essere limitato a determinati ambiti di ricerca – quelli riguardanti la metafisica e la religione – oppure – come accade nel caso delle matematiche – viene orientato e legittimato nella direzione di un’utilità pratica. Cartesio, nel Seicento, tenta di riplasmare la nozione di ‘filosofia’ proprio a partire da queste esigenze e al servizio di tali bisogni.

Ma, come mostra la storia della tecnica, ben presto emerge un’ulteriore tendenza. È la tendenza alla complessificazione, all’automatizzazione e alla connessione delle varie tecniche in un unico sistema. Si pensi ai vari elementi che compongono un orologio meccanico. Leve, molla, ruote dentate, ad esempio, sono tutti strumenti finalizzati al movimento delle lancette e, attraverso di esse, alla misurazione del tempo. Si pensi alla fabbrica ottocentesca, in cui l’efficienza e la velocità dei processi produttivi è garantita dal sistema della divisione del lavoro.

La complessificazione dei processi per raggiungere un unico scopo, e insieme la connessione sistematica dei singoli mezzi fra loro, rendono possibile qualcosa di nuovo: la nascita di apparati in grado di agire automaticamente, cioè senza che sia necessario un costante impulso da parte dell’essere umano. Anzi – come avviene nel caso della fabbrica fordista – tali apparati sono in grado d’inglobare nella loro azione lo stesso agire umano, riducendolo a semplice rotella di un ingranaggio più grande di lui. Di più. Come mostra l’esempio dell’orologio, si ha un vero e proprio rovesciamento di prospettiva: lo strumento, adesso, non permette tanto di rispecchiare e di misurare il corso del sole, come faceva la meridiana, quanto è in grado di riscostruire per conto suo e di misurare lo scorrere del tempo in virtù del proprio procedere automatico.

L’intelligenza artificiale

In ogni caso tutti questi apparati e i loro processi sono pur sempre, ancora, sotto il controllo umano. Anche se ridotto alla rotella di un ingranaggio l’essere umano è in grado comunque di fermare la macchina. Ciò che invece viene meno, attraverso gli sviluppi tecnologici, è proprio questo controllo. Ecco una delle novità più significative che s’impone nella nostra epoca. Si tratta dell’acquisizione di una vera e propria autonomia, sia pure in gradi diversi, da parte delle tecnologie. È l’autonomia che caratterizza i dispositivi dotati della cosiddetta ‘intelligenza artificiale’. E all’interno di questo scenario l’essere umano – con la sua capacità di agire e la necessità di conoscere per agire da cui è caratterizzato – perde la propria centralità.

I sistemi dotati d’intelligenza artificiale sono in grado di analizzare l’ambiente in cui operano e di compiere azioni per raggiungere determinati obbiettivi. Tali sistemi possono configurarsi semplicemente come programmi, cioè come software (si pensi ai programmi di riconoscimento facciale), oppure venire incorporati in dispositivi di hardware (si pensi ad esempio ai robot). In quanto tali si differenziano dagli strumenti tecnici, ma si pongono, rispetto a essi, anche in continuità. Se ne differenziano perché, come dicevo, sono in grado di agire con una relativa autonomia, senza richiedere un costante input da parte dell’essere umano e perciò sfuggendo, almeno in parte, al suo controllo. Sono in continuità con gli sviluppi della tecnica nella misura in cui il sapere che la tecnica realizza non è, come pure dicevo, un sapere astratto, ma è un saper fare. Non esistono robot contemplativi.

Anche per quanto riguarda quest’ultimo aspetto, però, l’approccio delle tecnologie introduce una trasformazione sostanziale. Certo, ripeto: i dispositivi tecnologici presuppongono l’idea del sapere come ‘saper fare’ che è propria della tecnica e costringono tutti coloro che interagiscono con essi a intendere il sapere allo stesso modo. Nel contempo, tuttavia, la stessa concezione del ‘saper fare’ viene trasformata. Viene portata all’estremo. Alla fine, ciò che importa non è il raggiungimento dell’obbiettivo, in maniera più o meno efficiente, ma solo che un processo venga svolto. È questo, a ben vedere, lo spirito che anima anche la burocrazia.

Analogamente mutano in modo radicale anche il concetto e la funzione del ‘saper come fare’. Nei contesti tecnologici viene determinato come si fa qualcosa, cioè come lo si fa in maniera corretta. Più precisamente il problema di come fare correttamente o meno qualcosa è risolto riassorbendo questo fare all’interno di una determinata procedura. In tal modo non c’è più bisogno di scegliere: basta seguire la regola. E al tempo stesso viene meno la necessità di acquisire quella competenza etica che l’essere umano soltanto potrebbe offrire e che consisterebbe nell’indicazione di quei criteri e di quei principî che permettono di scegliere in maniera giustificata una procedura piuttosto che un’altra.

In tutti questi modi, insomma, lo sviluppo tecnologico al quale assistiamo e nel quale siamo immersi cambia sia la nozione di ‘conoscenza’, sia le modalità della sua attuazione. Le porta alle estreme conseguenze e, insieme, le restringe. Bisogna dunque approfondire meglio il modello di conoscenza tecnologica che ho brevemente delineato, soprattutto allo scopo di capire se in questo scenario resta spazio, e se sì quale, per le humanities.

La dittatura della procedura

La caratteristica di fondo che è propria della conoscenza tecnologica è di essere procedurale. Viviamo, anche a motivo dell’ampia diffusione di questa forma di conoscenza, nell’epoca della ‘dittatura della procedura’: in ambito sociale, comportamentale, relazionale. La procedura è quella forma di azione – un agire, peraltro, interno anche al conoscere – che vuole raggiungere specifici obbiettivi, che per farlo identifica una serie di passaggi finiti tali da condurre a essi, che stabilisce l’ordine di questi passaggi e che riesce a organizzare in maniera già da sempre stabilita il transito dall’uno all’altro. Il vantaggio della procedura è che, per seguirla, non è necessario pensare, non è necessario porsi domande, non è necessario di volta in volta cercare la strada giusta: basta solo seguire le istruzioni prefissate che consentono di compiere il corretto percorso. Tutto ciò è certamente molto utile in situazioni di emergenza, quando bisogna agire senza indugi. Lo svantaggio di tale impostazione, però, è che essa è rigida. Perché funzioni non sono ammesse eccezioni.

I programmi e le macchine funzionano secondo procedure. A ciò è dovuta la loro efficienza. Ma in ciò consiste anche il loro limite.

Il limite più significativo è quello per cui la procedura diventa l’unica modalità di agire. Nel momento in cui i processi diventano procedure e la procedura prende il sopravvento rispetto a tutte le altre forme di azione, si verifica un restringimento unilaterale delle possibilità che attengono all’ambito delle relazioni intramondane: sia di quelle che riguardano l’agire, sia di quelle che concernono il pensare. Si tratta di un impoverimento che ha conseguenze soprattutto sul modo in cui ci si pone nei confronti delle cose e dunque sulla forma di conoscenza con la quale ci si apre a esse.

Da questo punto di vista non solo l’approccio tecnologico al mondo diventa l’unico approccio, ma si configura anche come il modello generale a cui uniformarsi. Lo vediamo quotidianamente. Il ‘saper fare’ si realizza come attivazione di una procedura. Quest’attivazione, però, si compie anch’essa proceduralmente. Vale a dire, non è frutto di un’inventio, o dell’apprendimento previo di certe nozioni che poi è utile applicare, o di un’esperienza ottenuta nel passato. A tutto questo si sostituisce invece, quale versione inconsapevole e impoverita di un tradizionale approccio metodologico, un processo per tentativi ed errori: come quando, per far funzionare un apparato, non leggiamo più il manuale d’uso, vale a dire non acquisiamo più rispetto a tale apparato una qualche competenza teorica, ma tentiamo di avviarlo nella modalità del plug and play. Il progetto consapevole che mira a raggiungere un obbiettivo si trasforma in un tentativo di messa alla prova compiuto più o meno alla cieca.

Il problema maggiormente significativo, in questa trasformazione del conoscere determinata dallo sviluppo dalle tecnologie, riguarda però non il ‘saper fare’, ma il ‘saper come fare’. Lo accennavo prima. Il programma, la procedura, non sono qualcosa di neutro. Stabiliscono modalità rigide per il raggiungimento di un obbiettivo. Da una parte sembra dunque che il ‘saper come fare’ debba essere deciso una volta per tutte e quindi perda la sua importanza, finendo per essere assorbito nel ‘saper fare’ procedurale. Dall’altra parte però, approfondendo meglio la questione, emerge che c’è uno sfondo che ci dice come fare bene qualcosa. C’è una prospettiva etica – relativa cioè ai criteri e ai principî dei nostri comportamenti – che si trova incorporata (‘embedded’) nell’approccio procedurale. Si tratta della prospettiva utilitaristica dell’efficacia e dell’efficienza. Dove però non si capisce verso quale scopo questa efficacia ed efficienza debbano volgersi.

La creazione del Golem e la subordinazione a esso

Tutto ciò è spesso implicitamente accettato, oggi, anche per quanto riguarda i comportamenti e le conoscenze degli esseri umani. Ciò che sta avvenendo, infatti, è una proceduralizzazione di entrambe. C’è, in altre parole, una vera e propria egemonia che viene riconosciuta ai modi di procedere propri delle entità artificiali. C’è il riconoscimento, più o meno implicito, che tali procedure sono da prendere a modello anche per i comportamenti umani.

Tutto ciò è il risultato di una serie di passaggi che sono recentemente avvenuti e che è bene far emergere. Consideriamo un robot. Quando si pensa a un robot, di solito viene in mente un dispositivo dalle sembianze per lo più umane, o comunque animali, dotato di un sistema e di programmi che lo rendono capace di muoversi nello spazio, a differenza del computer (che sta dove lo si appoggia), e dotato di qualcosa come una sorta di faccia. È così, d’altronde, che ce lo raffigurano i romanzi di fantascienza, i fumetti, i film. In realtà il termine oggi ha vari significati ed è funzionale a molteplici applicazioni. Esso indica un meccanismo inizialmente progettato per svolgere quei compiti che l’essere umano o non è in grado di fare o che comporterebbero determinati pericoli. In quest’accezione il robot ha un impiego soprattutto in ambito industriale e militare, oppure viene usato in operazioni di salvataggio condotte in condizioni particolarmente critiche.

Ma quest’attenzione alla forma esteriore è solo uno degli aspetti di cui tenere conto. Per svolgere infatti le sue funzioni, ad esempio in contesti nei quali è richiesta un’alta precisione o una grande velocità di elaborazione dei dati, il robot dev’essere dotato di programmi specifici. Si tratta di programmi che non solo analizzano e processano informazioni in modo metodico e automatizzato, ma che sono fatti in modo da elaborare le risposte fornite dai sensori esterni di cui il robot è dotato e di adattarle ai compiti a esso assegnati. C’è dunque, in questo caso, un’interazione con l’ambiente in cui il sistema automatizzato opera e la capacità per tale sistema di raggiungere un obbiettivo seguendo procedure diverse a seconda delle situazioni.

Tenendo conto di quest’ultimo punto, l’aspetto, cioè il sembiante antropomorfo del robot non è soltanto il frutto di un’idea romanzesca, ma è giustificato da una serie di motivi. Il robot è stato prodotto per affiancare l’essere umano nelle sue attività e pertanto, per assolvere ai suoi scopi, dev’essere fatto in un certo modo: deve avere ad esempio la capacità di afferrare oggetti attraverso qualcosa che funzioni come una mano. Ben presto, però, da sistema di affiancamento esso si trasforma in un sistema di accompagnamento dell’essere umano stesso. Il robot, cioè, viene costruito non solo per coadiuvare e perfezionare l’essere umano in certe sue azioni (come per esempio le operazioni chirurgiche), ma anche per interagire con lui o con lei, e per assisterli in certe loro esigenze. È il caso del robot badante o del robot cagnolino. Anche per questo, per facilitare un’interazione, la macchina deve avere una ‘faccia’.

Tutto questo ha contribuito però a sviluppare un’altra idea: l’idea che il robot possa non solo affiancare e accompagnare, ma addirittura sostituire l’essere umano in certe sue attività, dato che in alcuni casi le può svolgere meglio. E questo ha provocato una serie di reazioni contrastanti. Da una parte si è verificato un rigetto psicologico degli esseri umani nei confronti dei robot, che sta alla base anche di quei timori che essi suscitano. Dall’altra parte si è invece consolidata una specie di attrazione nei confronti di tali entità che ha prodotto una dinamica di vero e proprio rispecchiamento fra esseri umani e robot. Non solo i robot, cioè, sono fatti in modo da assomigliarci, provocando una serie di problemi, ma noi stessi possiamo essere indotti a prenderli a modello: come accade nella prospettiva del transumanismo e del post-umano.

Per chiarire meglio il primo punto, è utile fare riferimento alle ricerche di Mori Masahiro, note con il nome di teoria della «uncanny valley», ossia della «curva perturbante» (ne ho parlato più estesamente nel terzo capitolo del mio Etica per le tecnologie dell’informazione e della comunicazione, Carocci, Roma 2018). Esse mostrano come la sensazione di familiarità che proviamo nei confronti di un robot antropomorfo cresca fino al punto in cui la sua troppa somiglianza con noi non ci provoca un rigetto emotivo, segnalato da una brusca flessione – la «perturbazione» cui fa riferimento la teoria – nella curva che rappresenta, in un ipotetico grafico, il nostro atteggiamento rispetto a tali entità artificiali. Ciò significa dunque che il robot, per avere a che fare con noi senza suscitare disagio, dev’essere riconoscibile come tale, deve cioè assomigliarci, ma senza essere scambiato per uno di noi. Forse è questo il motivo per cui ai replicanti di Blade Runner – il film di Ridley Scott del 1982 tratto da un romanzo di Philip K. Dick – viene data la caccia: perché sembrano, e forse sono, troppo umani.

Riguardo al secondo punto, invece, emerge una dinamica diversa. Io mi specchio nell’apparato che ho costruito, mi riconosco, magari, e mi contemplo. Ma su di esso posso anche proiettare gli aspetti migliori che mi sono propri. E dunque, vista la sua maggiore funzionalità (all’interno di una prospettiva in cui si assume di nuovo, implicitamente, il principio etico dell’utile), il dispositivo artificiale, antropomorfo o meno che sia, diventa il modello al quale bisogna conformarsi. E in effetti, quando cambio smartphone, non è il nuovo apparato che si adatta a me, ma io che mi ci debbo adattare.

Si diffondono allora i tentativi, compiuti da esseri umani, di ibridarsi con gli automi, o di uniformare i propri comportamenti a procedure standard. Emerge, quanto meno, l’esigenza di sottometterci a quelle entità che, in maniera più veloce, performante, efficiente, fanno le stesse cose che facciamo noi, le fanno meglio – sempre intendendo questo ‘meglio’ secondo il parametro dell’utilità – e le fanno in modo da richiedere sempre meno il nostro supporto. Il Golem, così, finisce per subordinare a sé il suo creatore.

Autolimitazione e servitù volontaria

In questo quadro possono essere comprese anche altre conseguenze del primato tecnologico e dei modi in cui esso s’annuncia, in ambito sia teorico che pratico, nel mondo in cui viviamo. Si tratta di conseguenze che si ricollegano sia al tema della limitazione unilaterale delle forme di conoscenza e di azione, sia a quello della subordinazione dell’essere umano alla macchina di cui ho parlato nelle pagine precedenti. In entrambi i casi, va detto subito, si tratta di un’autolimitazione e di una «servitù volontaria» – volendo citare il titolo del Discorso sulla servitù volontaria di Etienne de la Boëtie (Feltrinelli, Milano 2014) – che vengono compiute e accettate dagli esseri umani. E ciò è paradossale: significa infatti che scegliamo, più o meno implicitamente, di ridurre ciò che facciamo e sappiamo ai modi di operare e di conoscere propri di quelle entità che, come abbiamo visto, sono di per sé limitate.

Per quanto riguarda più precisamente il tema che sto qui svolgendo, tale autolimitazione comporta anche un ridimensionamento del ruolo e della funzione delle humanities: un ridimensionamento che finisce per essere legittimato, di nuovo paradossalmente, dalle humanities stesse. Si tratta dell’ammissione di un’irrilevanza, da parte di queste discipline, che viene compiuta non solo nello spazio pubblico, ma anche all’interno del loro ambito disciplinare, anche da parte dei loro stessi cultori. Di questo bisogna tenere conto. Da qui bisogna ripartire.

Ho detto che l’egemonia del modello di conoscenza e di prassi veicolato dalle tecnologie è il risultato di un processo storico che ha orientato le decisioni degli esseri umani, prima in Occidente e poi a livello globale. Si tratta di un processo non inevitabile. Ad ogni bivio, comunque, veniva presa una determinata strada, spesso senza avere la piena consapevolezza di dove essa avrebbe portato.

Oggi il risultato di questo processo sembra lasciare poco spazio a ulteriori alternative. Ciò accade soprattutto perché le tecnologie, ad esempio le tecnologie dell’informazione e della comunicazione, non servono più solo a colonizzare ambienti che gli esseri umani siano in grado di abitare comodamente, ma si sono trasformate esse stesse in ambienti: ambienti che, in modalità virtuale, sempre più frequentiamo. Ciò si verifica, tuttavia, anche perché queste tecnologie si sono estese globalmente, esportando forme di sapere e di agire che, in sinergia con il modello dell’economia di mercato, hanno sancito a livello mondiale il primato dell’Occidente, o di certi aspetti della sua tradizione, nei confronti della cultura e delle tradizioni di altri paesi.

Una conferma di questa situazione la possiamo avere se consideriamo le forme stesse del nostro linguaggio e le parole attraverso cui ci esprimiamo. Conformemente a quelle tendenze psicologiche a cui prima mi sono riferito, il linguaggio risulta esso stesso antropomorfizzante. Vale a dire che, attraverso le sue forme, omologa all’essere umano ciò che risulta estraneo alla sua dimensione. In tal modo non solo trasforma l’estraneo in familiare, ma fa sì che esso possa essere venir compreso, assimilato e posto al servizio delle esigenze umane. Ciò permette, fra l’altro, di comprendere perché possiamo considerare i robot tanto simili a noi da affiancarci e finanche sostituirci.

Queste tendenze sono oggi spinte fino alle estreme conseguenze. Ma tale estremizzazione porta a un rovesciamento di prospettiva. Il vero linguaggio, quello che ci permette di scoprire e di modificare il mondo, diventa quello con cui vengono programmate le macchine. L’espressione migliore dell’essere umano è data proprio dalla creatura che l’essere umano ha prodotto e che da lui (o lei) si è autonomizzata. Di conseguenza, le forme di conoscenza e di azione che possono meglio essere praticate, e con maggiore legittimità, sono quelle procedurali. Tutto il resto sembra non avere più ragione di essere. E magari è bene così.

Quale spazio rimane oggi per le humanities?

In questo quadro si comprende perché oggi, in epoca tecnologica, c’è sempre meno spazio per le humanities. Le discipline umanistiche sostengono un modello di agire e di sapere che sembra essere stato soppiantato da quelli posti in opera dai dispositivi tecnologici. Gli esseri umani sembrano ormai assuefatti al modello predominante. Gli stessi cultori delle humanities si sottopongono con maggiore o minore resistenza, ma comunque volontariamente, a tutte le procedure che li riguardano: si pensi alle periodiche forme di valutazione alle quali tutti siamo soggetti.

Ma in che cosa consiste lo specifico modo di agire e di pensare che può essere ricondotto all’ambito delle discipline umanistiche? Se riusciamo a rispondere a questa domanda, possiamo anche mostrare che non tutto rientra nel pensiero unico dell’«uomo a una dimensione» (Marcuse) oggi emergente. E, se le cose stanno così, può delinearsi un’alternativa: può essere messo a fuoco, cioè, quel bivio di fronte al quale ancora siamo e nei confronti del quale possiamo scegliere la strada giusta.

Alla domanda che ho appena posto posso rispondere qui solo schematicamente. Posso farlo contrapponendo, agli elementi che ho messo in luce riguardo alle forme di conoscenza veicolate dai dispositivi tecnologici, altri paradigmi tradizionalmente riconducibili, invece, all’ambito umanistico. Per prima cosa, mentre le tecnologie, come abbiamo visto, non solo trasformano il sapere in un ‘saper fare’, assorbendolo nella prassi tecnologica, ma soprattutto risolvono in questa prassi, considerata nel suo puro e semplice esercizio procedurale, le questioni legate al ‘saper come fare’, le discipline umanistiche si fondano dal canto loro su una vera e propria distinzione fra questi vari livelli. Il conoscere, qui, ha una sua autonomia e risponde alle leggi che sono proprie della sua specifica attività. Ciò non significa rivendicare nuovamente, pur in un contesto mutato, il ruolo di un sapere astratto. Il sapere è sempre sapere di qualcosa: è sempre verificato e verificabile attraverso le modalità della sua applicazione, che comunque risultano differenti nel caso delle diverse discipline. E tuttavia proprio il mantenimento della distinzione tra sapere e fare è la condizione necessaria per stabilire la loro corretta relazione. Non si tratta di una sovrapposizione o di un’identificazione. Si tratta al contrario di consentire e di giustificare, da un lato, l’esercizio di un agire che sia consapevole dei principî che lo orientano e, dall’altro, l’acquisizione di una conoscenza che sia responsabile delle conseguenze che essa comporta.

L’agire delle humanities, poi, non si riduce a una mera procedura. Ci sono tante forme di agire. La maggior parte di esse richiedono la gestione dell’imprevisto, la necessità di compiere salti logici, l’esercizio di forme di creatività. Questo è ciò che, nelle loro varie articolazioni, le discipline umanistiche studiano, testimoniano, mettono in opera, insegnano. Finora, d’altronde, non è stata progettata e costruita un’entità artificiale capace di agire in una maniera non procedurale. Ma questo è un limite, non già un vantaggio. Comporta, come abbiamo visto, una restrizione nell’ordine delle possibilità: una restrizione che può essere legittimata e accolta solo se è l’essere umano a decidere di farlo, rinunciando ad altre possibilità che possono essere da lui (o da lei) attivate.

Ma se non tutto è già proceduralmente deciso, se non tutto è già proceduralmente orientato, allora resta spazio per la scelta. E se c’è scelta c’è il bisogno di definire quei criteri e quei principî che consentono di scegliere bene: capendo anzitutto che cosa vuol dire, qui, ‘bene’. Emerge così la necessità dell’etica.

Le macchine, in quanto agiscono, in quanto agiscono con un certo grado di autonomia, sono anch’esse soggetti etici. Certo. Ma i loro criteri etici sono basati, come abbiamo visto, sul principio dell’utilità. È questo principio che sovraintende al loro funzionamento. A partire da qui, poi, è possibile verificare se il programma o la macchina funzionano bene, e rintracciare nei criteri e principî del costruttore, del programmatore, del collaudatore, dell’utilizzatore ciò che interviene ulteriormente a orientare la loro performance. È in quest’ottica che dev’essere affrontata la questione dei bias: i presupposti impliciti che guidano l’applicazione di determinati programmi.

L’idea che qui emerge è che è sempre possibile controllare il funzionamento di una macchina, e dunque che è possibile addirittura programmarla eticamente. Molti recenti documenti dell’Unione Europea si muovono su questa linea. Le cose, però, non stanno affatto così. Non solo perché l’esercizio della, sia pur relativa, autonomia della macchina sfugge a ogni controllo umano, ma perché l’agire in generale, e nello specifico il nostro agire, non coincide in tutto e per tutto con lo svolgimento di una procedura. Se questo è vero, il problema della scelta si ripropone a ogni passaggio, in ogni momento dell’agire, così come il rischio connesso ai salti logici nell’applicazione delle teorie e all’incertezza nella previsione del futuro.

Proprio richiamandoci alla centralità della scelta possiamo allora recuperare il tema del bivio, con il quale ho iniziato la mia riflessione. Quello degli esseri umani, in epoca tecnologica, non è un destino già segnato. È una situazione in cui consapevolmente devono essere prese determinate decisioni. La decisione oggi è tra l’omologazione a un modello unico di conoscenza e di azione, e l’apertura di possibilità che è in grado di rompere ogni autolimitazione, di emanciparsi da ogni forma di servitù.

Le discipline umanistiche è proprio questo che fanno: insegnano a gestire e a salvaguardare le possibilità, e a fare all’interno di esse le scelte giuste. Lo hanno sempre fatto. In tal modo hanno mantenuta viva e trasmessa nel tempo l’idea che l’essere umano è un facitore di possibilità.

Speriamo che oggi, davanti al bivio in cui ci troviamo, non venga fatta la scelta di rinunciarvi. Significherebbe non solo rinunciare allo spazio che le humanities possono e debbono avere nell’epoca in cui viviamo. Significherebbe soprattutto rinunciare alla nostra stessa umanità.

I commenti sono chiusi.