top of page

Between Machinity and Humanity

  • Writer: Primavera Fisogni
    Primavera Fisogni
  • 1 day ago
  • 25 min read

Rekh Magazine, within the frame of an interdisciplinary investigation about the concept of human agent / agentic AI, explores the idea of "machinity" (macchinità), a recently coined term defining the unconscious emic attitude through which humans inhabit technology, treating it as an extension of themselves rather than a mere tool. Engineer Paolo Foglio, who authored the essay "Macchinità", challenges the current definition of Artificial Intelligence, proposing it be renamed "absent intelligence" or "augmented interface"


La copertina del saggio di Paolo Foglio


di Primavera Fisogni


Più che per la capacità di comprensione, di soluzione dei problemi, di empatia, caratteristiche proprie dell'intelligenza umana, le macchine dotate di IA sorprendono perché non si fermano mai. Il limite abita invece l'umano, che però sa affrontare "l'incomputabile" e, per questo, non potrà mai essere superato dall'intelligenza artificiale. Sono alcune delle riflessioni dell'ingegner Paolo Foglio, grande esperto di tecnologie IA, autore di un saggio da leggere per orientarsi dell'Infosfera, tra reale e digitale, dal titolo "Macchinità" (Töpffer edizioni, pagine 266, 21 euro).

"Se bene interpretata, la macchinità ci permette di riabilitare l’errore per quello che realmente è: una fonte di conoscenza (...) - spiega - Questa interpretazione ottimale della macchinità è quello che ho definito “humanforming” ovvero integrare Essere Umani e Macchine in processi efficienti e flessibili, cosa per nulla facile essendo le due cose antitetiche, ma dove sia ben chiaro dove finisce la prestazione macchinica e inizia la responsabilità umana, la decisione creativa, l’intuizione che aggiunge valore, la realizzazione di ciò che rende soddisfatto l’Essere Umano alla fine della giornata".


Il neologismo “macchinità”, parola chiave e titolo del suo saggio, non può non interpellare ciascuno di noi. Perché richiama “umanità”. Le due parole sono interconnesse, proprio come l’esperienza reale-digitale vissuta quotidianamente. Vorrei partire da qui, con alcune sue considerazioni introduttive.


Scienza e tecnologia obbediscono a una sorta di principio di Archimede, collocato a metà tra l’antropologia e la dimensione sociale: ogni nuova applicazione, dirompente o meno, modifica inevitabilmente il nostro modo di essere e, al tempo stesso, ne è trasformata.Un esempio elementare è l’automobile. Nata per rispondere a esigenze di mobilità e, diremmo oggi, per “democratizzare l’uso delle carrozze”, diventa rapidamente prima un segno distintivo, poi un oggetto di massa. Nel tempo lascia una traccia profonda che incide sulla cultura e sugli immaginari collettivi e, per effetto di ritorno, riplasma lo stile, la tecnologia e persino il significato stesso del veicolo. In questo processo viene trasformato ed evolve il concetto originario di “automobile”. Consideriamo poi che in antropologia, si distingue tra etico ed emico. Etico significa guardare alle cose valutandole secondo precisi principi aventi presunto valore universale. Invece, emico significa arrestare il giudizio e limitarsi a guardare fatti e relazioni. In pratica: di fronte ad una tribù di cannibali, un antropologo etico invoca l’esorcista per salvare ciò che resta di questi sub-umani, mentre un antropologo emico si limita a tirar fuori il bloc notes e a prendere appunti.

Senza saperlo, la maggior parte di noi nel contatto quotidiano con le macchine, reagisce come una sorta di “Archimede emico” e ho inventato la parola “macchinità” proprio per indicare tale reazione. E si tratta di una reazione trasversale nel tempo e nello spazio, indipendente dalla complessità e dalle prestazioni delle macchine o dalle reazioni umane. Per questo ha diritto ad una specifica etichetta semantica. Dal punto di vista antropologico, la macchinità, è un atteggiamento emico inconscio, è la disposizione interiore con cui l’essere umano si apre alla logica della macchina, se ne appropria e lascia che essa modifichi la propria identità umana, oppure, dal punto di vista filosofico, è il modo in cui l’uomo abita la macchina: non come strumento esterno, ma come estensione di sé, fino a sentirne i ritmi, le regole e le precisioni come naturali. In pratica: nessuno si preoccupa dell’etica di una macchina perché una macchina, anche quando è “intelligente” non ha etica (e per un bel pò di tempo non l’avrà!), ma in compenso, principio di Archimede alla mano, le macchine si infiltrano nel nostro modo di essere, sovente sino a diventare esse stesse una vera e propria ontologia come proprio l’intelligenza artificiale ha fatto da trenta o quarant’anni a questa parte (e ce ne siamo accorti solo adesso, eh!).

E non bisogna dimenticare che gli Esseri Umani da sempre, nel loro ritenersi superiori un pò a tutto, hanno nel loro animo un cruccio: trasferire vita, coscienza e intelligenza nella materia inerte. Riuscirci ci differenzierebbe davvero da tutto ciò che ci circonda, non importa da chi sia stato creato. E, anche se nessun ingegnere lo ammetterebbe apertamente, è ancora prima dei tempi del Golem e dei primi robot che ci stiamo provando e, diciamolo pure, negli ultimi tempi abbiamo drasticamente alzato la posta. Almeno quanto basta per poter parlare seriamente di unire il mondo delle Macchine con quello degli Esseri Umani. In sostanza, almeno a livello psicologico e sociale, la Macchina è oramai il membro di una tribù che interagisce quasi paritariamente con quella degli Esseri Umani.


L’intelligenza artificiale, come anche lei argomenta, non è sovrapponibile all’intelligenza umana. Che cosa, a suo giudizio, ci impressiona di più dell’AI? E in che cosa l’AI non potrà mai superare l’uomo?


Credo che ciò che ci impressiona davvero dell’intelligenza artificiale non è che “pensi”, ma che non si fermi mai. L’AI ci colpisce per la sua prestazione incessante: lavora senza stanchezza, senza dubbio, senza esitazione. Non perché sia intelligente nel senso umano, ma perché è perfettamente funzionale. È una potenza operativa priva di attrito e proprio per questo ci seduce. Ci dà l’impressione di sapere tutto, di conoscerci, di conoscere cose del nostro mondo o dei nostri impianti che noi stessi ignoriamo. Ci ascolta e ci consiglia. Sempre e comunque. Alle volte male e, a pensarci bene, questo la rende umana. E in questa che è una dimostrazione di forza di pura “macchinità”, noi Esseri Umani tendiamo a dimenticare dinanzi a cosa in realtà ci troviamo: una lavatrice chiamata computer che parte da “problema” e arriva per passi successivi a “soluzione”, esattamente come una lavatrice parte da “panni sporchi” e sempre per passi successivi detti, guarda caso, “programmi”, arriva a “panni puliti”. Quanto ho appena descritto non è una semplificazione bensì la pura realtà tecnica. E in questa descrizione si nasconde il perché una macchina costruita con l’approccio del “risolvere per passi successivi” non sarà mai in grado superare gli Esseri Umani. La tecnologia della lavatrice, pardon, dei computer, è ottima per quei problemi che sono detti “computabili” ovvero che possono essere risolti sempre e comunque grazie ad un idoneo algoritmo ovvero per quei problemi per i quali esiste una serie di passi che ci portano da “problema” a “soluzione”. Ma il nostro cervello è invece molto abile a risolvere a modo suo quelle situazioni dette “incomputabili” per i quali l’algoritmo che risolve tutto non esiste. E questa sua capacità unitamente alla prestazione della “coscienza” non abbiamo ancora la più pallida idea da dove salti fuori. A dir la verità qualche idea ce l’abbiamo e proprio a dicembre 2025 è uscito un articolo che indica che forse, a colpi di neurobiologia e meccanica quantistica, abbiamo trovato il bandolo della matassa. Ma, al momento, il gomitolo resta tutto da sbrogliare e l’IA, nella sua essenza, è nulla più di un’utile e potente macchina che sa ma non conosce e che è molto abile a scommettere e a prevedere. Mentre noi umani, alle volte come cialtroni, alle volte come leader, sappiamo predire. Anzi, in tal senso, ciò che l’AI non potrà mai superare negli Esseri Umani è esattamente ciò che oggi tendiamo a considerare un difetto: il limite. La coscienza nasce dal limite, il giudizio dall’incertezza, il senso dall’interruzione. L’essere umano pensa perché può fermarsi, perché può dire “non so”, perché può cambiare idea. Il vero pericolo, allora, non è che le macchine diventino troppo intelligenti. È che, per stare al loro passo, smettiamo di esercitare la nostra umanità, riducendo il pensiero a prestazione e il vivere a calcolo. E a quel punto non saranno le macchine ad averci superato: saremo noi ad esserci abbassati.

 

La macchinità ci sollecita, in definitiva, a riconsiderare la nostra umanità: a suo giudizio, come possiamo uscire rinforzati dal confronto con le macchine?


Possiamo uscire rinforzati dal confronto con le macchine solo a una condizione: smettendo di competere con loro sul loro terreno. Ogni volta che proviamo a essere più rapidi, più efficienti, più ottimizzati, stiamo già perdendo, perché stiamo assumendo la macchinità come misura dell’umano.

La macchinità, invece, può diventare uno specchio critico. Ci costringe a chiederci che cosa vale la pena automatizzare e che cosa, al contrario, va difeso come irriducibile. Ci obbliga a distinguere tra ciò che può essere delegato e ciò che deve restare una responsabilità umana: il giudizio, la scelta, l’assunzione del rischio, la capacità di dire “no”.

Se bene interpretata, la macchinità ci permette di riabilitare l’errore per quello che realmente è: una fonte di conoscenza. Che è un po’ quello che dimostra l’evoluzione delle specie che ci mostra come un grumo catramoso possa evolvere in strutture in grado di surclassare qualunque macchina, perlomeno nel “nostro” ambiente. Questa interpretazione ottimale della macchinità è quello che ho definito “humanforming” ovvero integrare Essere Umani e Macchine in processi efficienti e flessibili, cosa per nulla facile essendo le due cose antitetiche, ma dove sia ben chiaro dove finisce la prestazione macchinica e inizia la responsabilità umana, la decisione creativa, l’intuizione che aggiunge valore, la realizzazione di ciò che rende soddisfatto l’Essere Umano alla fine della giornata.

Lo “humanforming” abilita il tempo lento, l’errore fecondo, l’ambiguità come spazio di senso. Significa accettare che non tutto ciò che è possibile sia desiderabile, e che l’efficienza non sia un criterio sufficiente per decidere come vivere. Nel caso specifico della macchina AI, il concetto di humanforming è ben rappresentato da questa relazione:

(Essere Umano + AI) > (Essere Umano) + (AI)

Se le macchine ci superano nella prestazione, l’uomo può superarle solo nel significato. Ma questo non accade automaticamente. È una pratica, non una garanzia. La vera sfida non è costruire macchine più umane, ma esseri umani che non abbiano paura di restare tali.

 

Le macchine non sbagliano. In realtà, i LLMs fanno discutere, e creano allerta, per le informazioni errate, i clamorosi fake, e altri scivoloni. Come si spiega, a suo giudizio? È il muro della semantica, invalicabile dalle macchine, nonostante machine e deep learning richiedano una base di comprensione semantica?


L’idea che “le macchine non sbagliano” è sostanzialmente infondata. E’ un po' come chiedersi: “quanto veloce corre un piatto di spaghetti?”. Una macchina fa niente altro che concentrare una certa dose di sapere in una precisa serie di azioni ripetibili a piacere. Se questa cosa ha un senso o un'utilità dipende esclusivamente dal contesto al contorno. Al più possiamo parlare di correttezza in senso tecnico, non certo in senso epistemico. Di fatto, le macchine non sbagliano perché non possono sbagliare: non hanno un rapporto con la verità, ma solo con la correttezza formale.

Quando applichiamo queste considerazioni all’IA, dovremmo considerare che pochi acronimi sono stati scelti malamente come quello di “intelligenza artificiale”. IA in realtà significa “intelligenza assente” oppure, al più, “interfaccia aumentata”. E se sposiamo questa correzione, tanti problemi spariscono. E si tratta di una correzione drammaticamente esatta. Tutti sappiamo che un sistema di intelligenza artificiale è fisicamente costituito da due parti: un computer e un programma. Del computer ne abbiamo parlato poca fa: tecnologicamente parlando, qualunque computer possiede i geni tecnici di quanto è stato concepito alla fine degli anni Quaranta. In pratica, è una lavatrice. Complessa, complicata, stupefacente…ma sempre lavatrice è. Per quanto riguarda i programmi, prendiamo in esame proprio gli LLM. In linea di massima, un LLM si basa su una rete neurale che, stimolata dal nostro prompt, restituisce una “idonea” risposta. Molti sanno che per fornire tale risposta, gli LLM si basano su calcoli statistici. Alcuni sanno che tali calcoli statistici sono applicati ad una costruzione matematica del mondo che si chiama “modello” che LLM acquisisce grazie alla costosa operazione detta “addestramento”. Quasi nessuno però sa che i calcoli statistici che dal prompt portano alla risposta sono basati esattamente sulla stessa matematica che definisce, ad esempio, come si muoverà il pallone che un giocatore calcia dinanzi alla porta in occasione di una punizione. In pratica, per rispondere alle nostre domande, un LLM ci mette la stessa “intelligenza” che mette una palla che rotola giù da un pendio. Quindi, per piacere, non parliamo più di intelligenza artificiale bensì ricordiamoci sempre che IA sta per “intelligenza assente”.

Pertanto, quando un LLM produce un falso clamoroso, non sta mentendo e non sta errando: sta funzionando esattamente come è stato progettato. Questo spiega perché i modelli linguistici possono generare testi semanticamente plausibili ma fattualmente infondati.

Non c’è un “muro della semantica” nel senso di un limite computazionale da aggirare con più dati o più potenza. C’è piuttosto un equivoco di fondo: confondiamo la coerenza semantica con la comprensione. I sistemi di machine e deep learning operano su strutture semantiche, ma non abitano il significato. Manipolano relazioni tra segni, non il loro senso ed effettuano le stesse scelte dinamiche (ed intelligenti!) di una palla che rotola!

Invece, la semantica, per l’umano, nasce dall’esperienza, dall’intenzionalità, dall’esposizione al mondo e alle sue resistenze. Per le macchine, la semantica non esiste. Esiste solo una geometria statistica sulla quale rotolano i prompt. L’intelligenza assente è potente, sofisticata, sorprendente, ma resta disancorata da qualsiasi criterio di verità vissuta. Il problema, dunque, non è che le macchine “sbaglino”, ma che noi tendiamo ad attribuire loro un’autorità epistemica che non possiedono. Finché tratteremo la fluidità linguistica come prova di comprensione, continueremo a stupirci dei loro errori. Il vero errore, però, non è della macchina: è umano. È scambiare una mappa ben disegnata per il territorio. Ovvero, cadere nella trappola dell’epistemia

 

Tra agire umano e agentic AI, che scarto c’è? In che cosa misuriamo la differenza tra i due ambiti decisionali?


Lo scarto tra l’agire umano e l’AI agentica non è una differenza di grado, ma di statuto. Entrambi “decidono”, ma non nello stesso senso. L’AI agentica opera all’interno di uno spazio di possibilità definito a priori: ottimizza scelte, coordina azioni, raggiunge obiettivi dati. Semplificando, possiamo dire che se una macchina classica ha solo un modo per poter raggiungere l’obiettivo desiderato dal suo costruttore o dal suo utente, un’AI agentica ha disponibili a priori modalità, vie e processi diversi tra i quali scegliere e che può applicare con intensità e modi diversi a seconda di cosa suggerisce la sua “esperienza statistica”. L’essere umano, invece, può mettere in discussione il quadro stesso entro cui l’azione ha luogo. Cambiare in corsa gli obiettivi oppure invalidare completamente un'azione che sino a ieri sembrava corretta. Dunque, la differenza si misura innanzitutto nella responsabilità. Un sistema agente può selezionare un’azione, ma non può risponderne. Non può assumere il peso delle conseguenze, né riconoscere il proprio errore come tale. L’agire umano è sempre esposto, perché implica un “io” che rischia, che si compromette, che può essere chiamato a rendere conto.

L’AI decide in base a criteri formali: obiettivi, ricompense, vincoli. L’uomo può decidere contro l’obiettivo, contro l’efficienza, persino contro se stesso. Può interrompere una catena causale, cambiare idea, disobbedire a una razionalità strumentale.

Infine, l’agire umano è situato e incarnato. Avviene in un mondo che resiste, che ferisce, che sorprende. L’AI agentica agisce in ambienti modellizzati, per quanto complessi. Non incontra mai davvero l’alterità. Lo scarto, dunque, non sta nella capacità di scegliere, ma nella possibilità di risignificare la scelta. Le macchine decidono all’interno di un mondo. L’uomo decide che mondo vale la pena abitare.

 

  Il suo libro suggerisce la possibilità di un avvicinamento tra antropologia, come approccio filosofico alla condizione umana, e macchinità, come studio delle prerogative delle macchine digitali. Nel concreto, che travaso concettuale è possibile? In termini ontologici, ma anche come indirizzi di ricerca…


L'avvicinamento tra antropologia e macchinità proposto nel mio libro è necessario per comprendere i mutamenti in atto. Il digitale ci ha portato alla soglia di cambiamenti epocali. Prima ha relegato l’economia convenzionale in un angolo sostituendola con quella, appunto, digitale dove produrre beni e servizi è cosa di secondo piano rispetto alla capacità di intercettare tempestivamente i bisogni degli utenti. Poi con l’utilizzo dell’IA, all’intercettare ha aggiunto il pilotare i bisogni degli utenti. Ora, pensare alle macchine falsamente intelligenti come semplici strumenti è pericolosamente ingenuo. Di fatto, l’IA non è solo più un’ontologia ma è diventata un vero e proprio orizzonte cognitivo: sempre più quello che pensiamo è legato a informazioni prodotte con l’utilizzo dell’IA. In altri termini, viviamo di informazioni che sono comunque frutto, alle volte avvelenato, prodotto da macchine addestrate a dirci cose che potremmo già sapere ma che non abbiamo la possibilità di recuperare ed utilizzare senza l’aiuto macchinico. In questo senso, parlare di IA come di “interfaccia aumentata”, significa rendersi conto che le immense quantità di dati che giacciono nelle infrastrutture informatiche e le immense capacità di elaborazione del cervello umano, sono profondamente limitate nei loro contatti dal fatto che la velocita di comunicazione degli Esseri Umani e fisicamente limitata a circa 40 bit/s mentre invece il nostro cervello così come le reti informatiche comunicano tranquillamente a svariati Gbit/s. Queste considerazioni aprono di fatto alla necessità, più che alla possibilità, di ibridare Esseri Umani e Macchine, ma indirizzano anche il travaso concettuale che ne deriva su più livelli, trasformando il modo in cui definiamo sia l'uomo sia lo strumento tecnologico. Il punto di contatto non è una sintesi pacifica, ma una zona di frizione. Le Macchine attuali stanno dimostrando quanta poca intelligenza esista in certe attività umane e, per contro, danno evidenza di quanto peculiari siano certe nostre caratteristiche. Non si tratta di umanizzare le macchine né di ridurre l’uomo a un sistema informazionale. Il travaso concettuale possibile è più sottile: usare le macchine come strumenti epistemici per comprendere meglio l’umano, e l’antropologia come argine critico contro una lettura ingenuamente funzionalista delle tecnologie.

Sul piano ontologico, la macchinità costringe l’antropologia a rivedere l’idea di soggetto come entità autonoma e autosufficiente. L’umano emerge sempre più come essere relazionale, tecnico, mediato. Allo stesso tempo, l’antropologia impedisce che la macchina venga pensata come soggetto pieno: le ricorda che operatività non equivale a esistenza, e che l’agire non coincide con l’essere. Nel concreto, questo dialogo apre almeno tre direzioni di ricerca. La prima riguarda l’incarnazione: studiare ciò che le macchine non hanno chiarisce che cosa significhi, per l’uomo, avere un corpo esposto, vulnerabile, situato. La seconda riguarda il senso: l’analisi della macchinità rende visibile la differenza tra produzione di significati e attribuzione di significato. La terza riguarda la responsabilità: interrogare i sistemi agenziali obbliga a ripensare l’etica non come insieme di regole, ma come pratica situata di assunzione delle conseguenze. Il travaso, dunque, non è una fusione ma un controcampo. Le macchine ci aiutano a delimitare l’umano proprio perché ne imitano alcune funzioni. E l’antropologia resta necessaria perché, in un mondo sempre più popolato da agenti artificiali, la domanda decisiva non è che cosa le macchine possono fare, ma che tipo di esseri umani stiamo diventando nel farle fare.»

 

Come ha iniziato ad occuparsi di macchinità? Dopo questo saggio, dagli spunti teorici suggestivi, a quali ricerche si sta dedicando?

Da lungo tempo mi occupo di innovazione tecnologica tanto di prodotto quanto di processo e delle relative strategie a supporto. Questo, in pratica, significa occuparsi, magari senza saperlo, proprio di macchinità. Infatti, non c’è forma di innovazione che non finisca per fare prima o poi i conti, inconsapevolmente o meno, con la macchinità proprio come definita in apertura a questa intervista. Ad un certo punto è stato naturale occuparsi di intelligenza artificiale e il resto, libro compreso, è venuto da sé. Al momento, ho in cantiere un testo che parla di meccanica quantistica e della base che sta fornendo per lo sviluppo di nuovi calcolatori, ma soprattutto dei legami che tale parte della fisica dimostra di avere con il fenomeno che attualmente chiamiamo “coscienza”.

  

 

Abstract:

The interview explores the concept of "machinity" (macchinità), a term defining the unconscious emic attitude through which humans inhabit technology, treating it as an extension of themselves rather than a mere tool. Foglio challenges the current definition of Artificial Intelligence, proposing it be renamed "absent intelligence" or "augmented interface". He argues that Large Language Models (LLMs) operate on purely statistical and formal grounds much like a ball rolling down a slope without any genuine semantic understanding or moral framework. The core of the discussion lies in the irreducible difference between humans and machines: while AI excels in incessant performance and solving "computable" problems, it lacks the "limit" that defines humanity, consciousness, doubt and errors. Foglio introduces the model of "humanforming," a synergistic integration where (Human + AI) > (Human) + (AI). In this framework, technology handles efficiency while humans retain the "epistemic authority" and the responsibility for creative meaning. Ultimately, the author warns that the real danger is not machines becoming too human, but humans lowering themselves to the level of machines by reducing life to mere calculation. The interview concludes by highlighting how anthropology must serve as a critical buffer to ensure that, in a digital world, we decide what kind of world is worth inhabiting.

© Copyright Rekh Magazine


L'intervistato


Paolo Foglio è un ingegnere elettronico specializzato nei processi produttivi e nei sistemi di automazione del settore automobilistico. Sin dal 1989 si occupa di ricerca e sviluppo e ha accumulato una vasta esperienza nel campo dell'innovazione tecnologica di prodotto e di processo. Attualmente si dedica alla trasformazione digitale e alle applicazioni industriali dell’intelligenza artificiale. Nel 2021, con il suo team, ha ricevuto il prestigioso USA Manufacturing Leadership Award del NAM (National Association of Manufacturers) nella categoria Intelligenza Artificiale e nel 2022 ha ottenuto il Digital360 Awards Special Prize for Sustainability. Fino al 2023 è stato membro EUCAR (Consiglio Europeo per la Ricerca Automobilistica), contribuendo attivamente sia al gruppo di Produzione e Materiali, sia al gruppo di Economia Circolare. Attualmente è membro del Comitato Scientifico di SPS Italia. Quando non progetta sistemi, Paolo si occupa di fotografia. Appassionato fuoristradista, i colleghi radioamatori lo possono trovare “on the air” con il nominativo IU1LMR.


English Text (Translated by P. Foglio)


Q1: The neologism “machinity” (macchinità), a key word and the title of your essay, cannot help but challenge each of us because it recalls “humanity”. The two words are interconnected, just like the real-digital experience we have every day. I would like to start here with some of your introductory considerations.

A1: Science and technology obey a sort of Archimedean principle, located halfway between anthropology and the social dimension: every new application, disruptive or not, inevitably modifies our way of being and, at the same time, is transformed by it. A basic example is the car. Born to meet mobility needs and, as we would say today, to “democratize the use of carriages,” it quickly became first a distinctive sign and then a mass object. Over time, it left a deep mark on culture and collective imaginaries and, through a feedback effect, reshaped the style, technology, and even the very meaning of the vehicle. In this process, the original concept of the “automobile” is transformed and evolves.

Consider also that in anthropology, a distinction is made between etic and emic. Etic means looking at things and evaluating them according to precise principles with presumed universal value. Instead, emic means suspending judgment and limiting oneself to looking at facts and relationships. In practice: faced with a tribe of cannibals, an etic anthropologist invokes the exorcist to save what remains of these sub-humans, while an emic anthropologist simply takes out a notebook and takes notes.

Without knowing it, most of us, in our daily contact with machines, react as a sort of “emic Archimedes,” and I invented the word “machinity” precisely to indicate this reaction. It is a reaction that spans time and space, independent of the complexity and performance of the machines or human reactions. For this reason, it deserves a specific semantic label. From an anthropological point of view, machinity is an unconscious emic attitude; it is the inner disposition with which the human being opens to the logic of the machine, appropriates it, and lets it modify their human identity. Or, from a philosophical point of view, it is the way in which man inhabits the machine: not as an external tool, but as an extension of oneself, to the point of feeling its rhythms, rules, and precisions as natural.

In practice: no one worries about the ethics of a machine because a machine, even when it is “intelligent,” has no ethics (and won’t have for a long time!). But in return, Archimedean principle in hand, machines infiltrate our way of being, often to the point of becoming an ontology themselves, just as artificial intelligence has done for the last thirty or forty years (and we only noticed it now, eh!). And we must not forget that Human Beings, in their perpetual sense of superiority, have always had a hidden longing: to transfer life, consciousness, and intelligence into inert matters. Succeeding would truly differentiate us from everything around us, regardless of who created it. And, even if no engineer would admit it openly, we have been trying since before the times of the Golem and the first robots, and let's face it, lately we have drastically raised the stakes. At least enough to talk seriously about uniting the world of Machines with that of Human Beings. In essence, at least on a psychological and social level, the Machine is now a member of a tribe that interacts almost as an equal with that of Human Beings.


Q2: Artificial intelligence, as you also argue, is not superimposable on human intelligence. What, in your opinion, impresses us most about AI? And in what way can AI never surpass man?

A2: I believe what truly impresses us about artificial intelligence is not that maybe it “thinks,” but that it never stops. AI strikes us with its incessant performance: it works without fatigue, without doubt, without hesitation. Not because it is intelligent in the human sense, but because it is perfectly functional. It is an operational power devoid of friction, and for this reason, it seduces us. It gives us the impression of knowing everything, of knowing us, of knowing things about our world or our systems that we ourselves are ignorant of. It listens to us and advises us. Always and regardless. Sometimes it is poor, and come to think of it, that makes it human.

In this demonstration of pure “machinity” strength, we Human Beings tend to forget what we are facing: a washing machine called a computer that starts from a “problem” and arrives through successive steps at a “solution,” exactly as a washing machine starts from “dirty clothes” and, through successive steps called, coincidentally, “programs,” arrives at “clean clothes”34. What I have just described is not a simplification but pure technical reality.

Contained within this description is why a machine built with the “solving by successive steps” approach will never be able to surpass Human Beings. Washing machine technology, pardon, computer technology, is excellent for those problems called “computable,” which can always be solved thanks to a suitable algorithm, i.e., for those problems where a series of steps exists to take us from “problem” to “solution”. But our brain is instead very skilled at solving, in its own way, those situations called “incomputable” for which the algorithm that solves everything does not exist. And this ability, together with the performance of “consciousness,” we still haven't the faintest idea where it comes from. To tell the truth, we have some ideas, and just in December 2025, an article was published indicating that perhaps, through neurobiology and quantum mechanics, we have found the end of the thread.

But for now, the ball of yarn remains to be unraveled, and AI, in its essence, is nothing more than a useful and powerful machine that “knows” but does not understand and is very skilled at betting and predicting. While we humans, sometimes like rogues, sometimes like leaders, know how to foretell. In fact, in this sense, what AI can never surpass in Human Beings is exactly what we tend to consider a defect today: the limit. Consciousness is born from the limit, judgment from uncertainty, meaning from interruption. The human being thinks because they can stop, because they can say “I don't know,” because they can change their mind. The true danger, then, is not that machines become too intelligent. It is that, to keep up with them, we stop exercising our humanity, reducing thought to performance and living to calculation. And at that point, it won’t be the machines that have surpassed us: it will be us who have lowered ourselves


Q3: Ultimately, machinity urges us to reconsider our humanity: in your opinion, how can we emerge strength from the confrontation with machines?

A3: We can only emerge strength from the confrontation with machines on one condition: by stopping competing with them on their ground. Every time we try to be faster, more efficient, more optimized, we are already losing, because we are assuming machinity as the measure of humanity. Machinity, instead, can become a critical mirror. It forces us to ask ourselves what is worth automating and what, on the contrary, must be defended as irreducible. It obliges us to distinguish between what can be delegated and what must remain a human responsibility: judgment, choice, the assumption of risk, the ability to say “no”.

If well interpreted, machinity allows us to rehabilitate the error for what it really is: a source of knowledge. This is somewhat what the evolution of species demonstrates, showing how a tarry lump can evolve into structures capable of outclassing any machine, at least in “our” environment. This optimal interpretation of machinity is what I have defined as “humanforming”: integrating Human Beings and Machines into efficient and flexible processes, no easy task as the two are antithetical, but where it is clear where machine performance ends and human responsibility, creative decision-making, value-adding intuition, and the realization of what makes a Human Being satisfied at the end of the day begin.

“Humanforming” enables slow time, fruitful error, and ambiguity as a space for meaning. It means accepting that not everything that is possible is desirable, and that efficiency is not a sufficient criterion for deciding how to live. In the specific case of the AI machine, the concept of humanforming is well represented by this relationship:

(Human Being + AI) > (Human Being) + (AI)

If machines surpass us in performance, man can only surpass them in meaning. But this does not happen automatically. It is practice, not a guarantee. The real challenge is not building more human machines, but human beings who are not afraid to remain so.


Q4: Machines do not make mistakes. LLMs cause debate and create alerts because of incorrect information, sensational fakes, and other blunders. How do you explain this, in your opinion? Is it the wall of semantics, impassable by machines, despite machines and deep learning requiring a basis of semantic understanding?


A4: The idea that “machines do not make mistakes” is essentially groundless. It’s a bit like asking: “how fast does a plate of spaghetti run?”. A machine does nothing other than concentrate a certain dose of knowledge into a precise series of repeatable actions. Whether this has meaning or utility depends exclusively on the surrounding context. At most, we can speak of correctness in a technical sense, certainly not in an epistemic sense. In fact, machines do not make mistakes because they cannot: they have no relationship with truth, only with formal correctness.

When we apply these considerations to AI, we should consider that few acronyms have been chosen as poorly as “artificial intelligence”. AI means “absent intelligence” or, at most, “augmented interface”. And if we embrace this correction, many problems disappear. And it is a dramatically accurate correction. Everyone knows that an artificial intelligence system is physically made of two parts: a computer and a program. We spoke about computers a moment ago: technologically speaking, every computer possesses the technical genes of what was conceived in the late 1940s. In practice, it’s a washing machine. Complex, complicated, amazing… but it’s still a washing machine.

As for the programs, let’s examine LLMs80. An LLM is based on a neural network that, stimulated by our prompt, returns a “suitable” response. Many know that to provide such a response, LLMs rely on statistical calculations. Some know that these statistical calculations are applied to a mathematical construction of the world called a “model” that the LLM acquires through the expensive operation called “training”. Almost no one, however, knows that the statistical calculations that lead from the prompt to the response are based on the same mathematics that defines, for example, how a ball kicked by a player during a free kick will move toward the goal. In practice, to answer our questions, an LLM uses the same “intelligence” as a ball rolling down a slope.

So, please, let’s stop talking about artificial intelligence and always remember that AI stands for “absent intelligence”. Therefore, when an LLM produces a sensational fake, it is not lying and it is not erring; it is functioning exactly as it was designed. This explains why language models can generate semantically plausible but factually groundless texts. There is no “wall of semantics” in the sense of a computational limit to be bypassed with more data or more power. Rather, there is a fundamental misunderstanding: we confuse semantic coherence with understanding. Machine and deep learning systems operate on semantic structures, but they do not inhabit the meaning. They manipulate relationships between signs, not their sense, and they make the same dynamic (and intelligent!) choices as a rolling ball!

Instead, semantics, for the human, is born from experience, intentionality, and exposure to the world and its resistances93. For machines, semantics does not exist. There exists only a statistical geometry upon which prompts roll. Absent intelligence is powerful, sophisticated, and surprising, but it remains detached from any criterion of lived truth. The problem, therefore, is not that machines “make mistakes,” but that we tend to attribute to them an epistemic authority they do not possess. If we treat linguistic fluidity as proof of understanding, we will continue to be surprised by their errors. The true error, however, is not the machine's: it is human99. It is mistaking a well-drawn map for the territory. Or rather, falling into the trap of episteme.


Q5: Between human action and agentic AI, what is the gap? In what do we measure the difference between the two decision-making spheres?

A5: The gap between human action and agentic AI is not a difference of degree, but of status. Both “decide, but not in the same sense. Agentic AI operates within a defined space of possibilities: it optimizes choices, coordinates actions, and reaches given objectives. To simplify, we can say that if a classic machine has only one way to reach the objective desired by its builder or user, an agentic AI has available by design different methods, paths, and processes to choose from, which it can apply with different intensities and ways depending on what its “statistical experience” suggests.

Human beings, however, can question the very framework within which the action takes place. They can change objectives on the fly or completely invalidate an action that until yesterday seemed correct. Thus, the difference is measured primarily in responsibility. An agent system can select an action, but it cannot answer for it. It cannot assume the weight of consequences, nor recognize its own error as such. Human action is always exposed because it implies an “I” that risks, that commits itself, that can be called to account. AI decides based on formal criteria: objectives, rewards, constraints. Man can decide against the objective, against efficiency, even against himself. He can break a causal chain, change his mind, and disobey instrumental rationality.

Finally, human action is situated and embodied. It takes place in a world that resists, that hurts, that surprises. Agentic AI acts in modeled environments, however complex. It never truly encounters alterity. The gap, therefore, lies not in the ability to choose, but in the possibility of re-signifying the choice. Machines decide within a world. Man decides what world is worth inhabiting.


Q6: Your book suggests the possibility of a convergence between anthropology, as a philosophical approach to the human condition, and machinity, as a study of the prerogatives of digital machines. In concrete terms, what conceptual transfer is possible? In ontological terms, but also as research directions…

A6: The convergence between anthropology and machinity proposed in my book is necessary to understand the changes currently underway. The digital has brought us to the threshold of epochal changes. First, it relegated conventional economics to a corner, replacing it with digital economics where producing goods and services is secondary to the ability to promptly intercept user needs. Then, with the use of AI, intercepting it added the steering of user needs. Now, thinking of falsely intelligent machines as simple tools is dangerously naive. In fact, AI is no longer just ontology but has become a true cognitive horizon: more of what we think is linked to information produced using AI. In other words, we live on information that are fruits, sometimes poisoned, produced by machines trained to tell us things we might already know but have no possibility of retrieving and using without machines’ themselves help.

In this sense, talking about AI as an “augmented interface” means realizing that the immense amounts of data lying in IT infrastructures and the immense processing capabilities of the human brain are deeply limited in their contact by the fact that human communication speed is physically limited to about 40 bit/s, while our brain areas and computer networks communicate easily at several Gbit/s. These considerations open the necessity, more than the possibility, of hybridizing Human Beings and Machines, but they also direct the resulting conceptual transfer on multiple levels, transforming the way we define both man and the technological tool.

The point of contact is not peaceful synthesis, but a zone of friction. Current Machines are demonstrating how little intelligence exists in certain human activities and, conversely, give evidence of how peculiar certain characteristics of ours are. It is not about humanizing machines nor reducing man to an informational system. The possible conceptual transfer is more subtle: using machines as epistemic tools to better understand the human, and anthropology as a critical buffer against a naively functionalist reading of technologies.

On an ontological level, machinity forces anthropology to revise the idea of the subject as an autonomous and self-sufficient entity. Humans emerge increasingly as a relational, technical, mediated being. At the same time, anthropology prevents the machine from being thought of as a full subject: it reminds it that operativity does not equal existence, and that acting does not coincide with being.

In concrete terms, this dialogue opens at least three directions of research. The first concerns embodiment: studying what machines do not have clarifies what it means for man to have an exposed, vulnerable, situated body. The second concerns meaning: the analysis of machinity makes visible the difference between production of meanings and attribution of meaning. The third concerns responsibility: interrogating agential systems obliges us to rethink ethics not as a set of rules, but as a situated practice of assuming consequences. The transfer, therefore, is not a fusion but a counter-shot. Machines help us delimit human precisely because they imitate some of its functions. And anthropology remains necessary because, in a world increasingly populated by artificial agents, the decisive question is not what machines can do, but what kind of human beings we are becoming by having them doing our tasks.


Q7: How did you start dealing with machinity? Following this essay, with its suggestive theoretical insights, what research are you currently dedicated to?

A7: For a long time, I have been dealing with technological innovation, both in terms of products and processes, and the related supporting strategies. This, in practice, means dealing with machinity, perhaps without knowing it, exactly as defined at the beginning of this interview. In fact, no form of innovation doesn't eventually have to reckon, consciously or not, with machinity. At a certain point, it was natural to move into artificial intelligence, and the rest, including the book, followed. Currently, I have a text in the works that discusses quantum mechanics and the basis it provides for the development of new computers, but above all, the links that this part of physics shows it has with the phenomenon we currently call “consciousness”.

 

 

 


 
 
 

Comments


Drop Me a Line, Let Me Know What You Think

Thanks for submitting!

© 2035 by Train of Thoughts. Powered and secured by Wix

bottom of page