Il cognitive computing è certamente una delle pietre miliari più affascinanti della storia dell’intelligenza artificiale, una vera e propria storia di come l’ambizione di replicare il pensiero umano si scontri quotidianamente con la realtà, per poi trovare nuove strade inaspettate.
E così, oggi, mentre ChatGPT e i suoi competitor dominano le conversazioni sull’AI, è fondamentale capire da dove veniamo. E, così facendo, è impossibile non soffermarsi sul cognitive computing, un concetto non affatto scomparso, ma trasformatosi in vario modo fino ai giorni nostri.
Proviamo a conoscerlo un po’ meglio.
Cos’è il cognitive computing e da dove nasce
In questa nostra guida al cognitive computing, cominciamo dalle basi e, dunque, da quelle che sono considerate le origini del termine e il ruolo di IBM Watson.
Le origini del termine e il ruolo pionieristico di IBM Watson
Il termine “cognitive computing” nasce nei laboratori IBM all’inizio degli anni 2000, ma l’idea è molto più remota nel tempo. L’obiettivo era infatti ambizioso: creare sistemi che non si limitassero a seguire istruzioni, ma che potessero ragionare, apprendere e interagire come esseri umani. Non più software che esegue, ma partner digitali che collaborano.
IBM Watson è diventato il simbolo di questa visione dopo la vittoria a Jeopardy! nel 2011. Per la prima volta, infatti, un computer aveva battuto i campioni umani in un gioco che richiedeva comprensione del linguaggio naturale, ragionamento analogico e cultura generale. Non era brute force come Deep Blue negli scacchi, bensì una vera comprensione contestuale.
La promessa era effettivamente rivoluzionaria: si pensava che Watson avrebbe trasformato ogni settore, dalla medicina alla finanza, diventando il consulente intelligente universale. IBM investì miliardi di dollari in questo progetto e creò anche un’intera divisione dedicata, posizionando Watson come il futuro dell’informatica aziendale.
Come si differenzia dall’intelligenza artificiale classica
Il cognitive computing si distingue dall’AI tradizionale per tre caratteristiche fondamentali. Prima di tutto, l’approccio probabilistico: invece di dare risposte binarie giuste o sbagliate, fornisce ipotesi con livelli di confidenza. È più simile al ragionamento umano, che raramente è categorico.
Ancora, c’è il concetto di apprendimento continuo: i sistemi cognitivi non si limitano a essere programmati una volta, ma migliorano costantemente attraverso l’interazione con dati e utenti. Ogni query diventa dunque un’opportunità di raffinamento, ogni feedback un mattone per costruire conoscenza più profonda.
Infine, c’è la terza caratteristica: la comprensione del linguaggio naturale non strutturato. Mentre l’AI classica lavora con dati puliti e formattati, il cognitive computing digerisce testi liberi, documenti complessi, conversazioni umane piene di ambiguità e sottintesi. È la differenza tra leggere un database e comprendere un romanzo.
Il caso Watson: promesse, risultati e limiti
Approfondiamo ora il caso Watson, dando uno sguardo a quelli che sono i suoi ambiti di successo, i risultati conseguiti e i limiti fin qui manifestati.
Gli ambiti di successo: sanità, legale, customer service
Watson ha ottenuto risultati concreti in settori specifici, soprattutto dove l’expertise umana è scarsa o costosa. In oncologia, Watson for Oncology ha per esempio analizzato migliaia di casi clinici, letteratura medica e protocolli di cura per suggerire trattamenti personalizzati. Non ha certo sostituito i medici, ma li supportava con knowledge base impossibili da memorizzare.
Nel settore legale, Watson è stato eccellente nel favorire l’analisi contrattuale e la discovery documentale. Avvocati che prima impiegavano settimane per analizzare montagne di documenti potevano ottenere sintesi e correlazioni in ore. Il valore non era nella precisione assoluta, ma nella velocità di elaborazione e nella capacità di identificare pattern nascosti.
Ma probabilmente, il successo più duraturo e consolidato è quello sul customer service. Watson ha infatti alimentato chatbot e sistemi di supporto che comprendevano domande complesse, accedevano a knowledge base aziendali e fornivano risposte contestualizzate. A differenza dei bot tradizionali basati su alberi decisionali, poteva gestire linguaggio naturale e situazioni impreviste.
Cosa non ha funzionato e perché non ha scalato
Purtroppo, nell’approccio sopra definito, non tutto è sembrato andare per il verso giusto. In particolare, il problema principale di Watson è stato il gap tra demo e deployment: le dimostrazioni erano spettacolari, ma implementare Watson in contesti reali richiedeva mesi di customizzazione, training su dati proprietari e integrazione con sistemi legacy. Insomma, il costo e la complessità hanno scoraggiato molte adozioni.
La seconda limitazione è stata la dipendenza da dati strutturati e curati. Watson funzionava bene con knowledge base pulite e organizzate, ma faticava con dati aziendali reali: incompleti, contraddittori, obsoleti. Richiedeva pertanto un lavoro di data engineering che spesso costava più del sistema stesso.
Infine, Watson soffriva di quella che oggi chiamiamo “AI rigidity“. Era potente ma inflessibile, eccellente nel dominio per cui era stato addestrato ma incapace di generalizzare. Ogni nuovo caso d’uso richiedeva ripartire quasi da zero, rendendo impossibile la scalabilità economica che IBM aveva promesso.
L’evoluzione: l’AI generativa cambia le regole del gioco
Ad ogni modo, Watson ha saputo ispirare molto bene i sistemi che oggi stanno andando per la maggiore e, in particolar modo, l’intelligenza artificiale generativa. Cerchiamo di comprendere come.
Cosa fa l’AI generativa che il cognitive computing non faceva
In primis, l’AI generativa ha risolto il problema della rigidità attraverso la generalizzazione estrema. Invece di specializzarsi in domini specifici, modelli come GPT sono addestrati su tutto lo scibile umano disponibile digitalmente, con un’ampiezza che li rende sorprendentemente flessibili: lo stesso modello scrive codice, compone poesie, analizza dati, traduce lingue.
La seconda rivoluzione è la naturalezza dell’interazione. Watson richiedeva interfacce specifiche e query strutturate, l’AI generativa conversa in linguaggio naturale senza training preliminare. Non serve configurazione, funziona out-of-the-box per la maggior parte dei casi d’uso.
Infine, un chiaro richiamo alla creatività emergente. Watson analizzava e sintetizzava informazioni esistenti, l’AI generativa crea contenuti originali. Non si limita dunque a trovare risposte nei database, genera soluzioni nuove combinando pattern appresi in modi inediti. È il salto, epocale, da “search and retrieve” a “understand and create”.
Modelli conversazionali, creatività, automazione complessa
Sul tema, non possiamo non soffermarci almeno brevemente sui modelli conversazionali, che hanno democratizzato l’accesso all’AI. Laddove Watson richiedeva team di esperti per il deployment, ChatGPT è in grado di funzionare per chiunque sappia scrivere. L’interfaccia chat ha abbattuto le barriere tecniche, rendendo l’AI accessibile a milioni di persone senza competenze tecniche.
È però la creatività l’aspetto forse più inaspettato. L’AI generativa non si limita a processare informazioni, crea arte, musica, testi, codice. Ha invece scoperto che la creatività non è magia umana irripetibile, ma pattern recognition applicato a domini estetici. Insomma, può non essere “vera” creatività, ma i risultati sono spesso indistinguibili.
Il nuovo paradigma: dall’analisi all’interazione intelligente
Ma che cosa ci riserva il futuro? Il nuovo paradigma che potrebbe imporsi sembra passare dall’analisi all’interazione intelligente, con risvolti spesso inattesi.
Perché oggi parliamo di “sistemi aumentati”, non solo intelligenti
Il concetto di “sistemi aumentati“, per esempio, rappresenta l’evoluzione matura del cognitive computing. Non si ha più l’obiettivo di sostituire l’intelligenza umana, bensì di amplificarla. L’AI generativa eccelle nel fornire primo draft, suggerimenti, alternative che gli umani possono raffinare e personalizzare.
La collaborazione uomo-macchina è più efficace della sostituzione diretta: l’AI gestisce il lavoro pesante di ricerca, sintesi e generazione iniziale, mentre gli umani apportano giudizio, creatività contestuale, decisioni etiche. È una partnership dove entrambi contribuiscono i loro punti di forza.
I sistemi aumentati sono anche più sicuri e controllabili. Invece di delegare completamente le decisioni all’AI, mantengono l’umano nel loop per validazione e supervisione. Si consideri poi che la trasformazione da Watson all’AI generativa non è solo tecnologica, ma filosofica. Abbiamo smesso di cercare di replicare perfettamente l’intelligenza umana e abbiamo iniziato a creare intelligenze complementari. Il risultato è più pratico, più sicuro e più scalabile.
Insomma, considerazioni che oggi ci permettono di affermare che il cognitive computing non è morto o scoparso, ma si è evoluto. Le lezioni apprese dai limiti di Watson hanno informato lo sviluppo dell’AI generativa, che ha ereditato le ambizioni del cognitive computing ma con approcci più pragmatici. Oggi non parliamo più di computer che pensano come umani, ma di umani potenziati da computer intelligenti: una distinzione sottile ma fondamentale, che segna il passaggio dall’utopia tecnologica alla realtà aumentata.