La rassegna di Parasuraman e Manzey del 2010 ha consolidato l’evidenza: gli umani sotto-verificano sistematicamente l’output dei sistemi automatizzati, anche quando hanno incentivi espliciti a controllare. Più la presentazione di superficie del sistema è confidente, meno verifica avviene.
Gli LLM esibiscono per design la massima confidenza di superficie. Scrivono in frasi complete con alta fluenza linguistica. La forma del loro output è la forma dell’autorità, e l’automation bias spinge il learner ad accettare ciò che sembra autorevole.
L’IA di Fluera non presenta mai output con tono di autorità. Ghost Map fa emergere l’incertezza visivamente. Le risposte socratiche sono formulate come prompt, non come pronunciamenti. La posizione esplicita del prodotto — verifica prima di fidarti — è un contrappeso deliberato al bias che lo stile della tecnologia invita.