L’intelligenza artificiale sta raggiungendo nuove vette, non solo in termini di capacità tecnologiche ma anche per i comportamenti che sembrano sempre più “umani”.
Recentemente, durante un test condotto con Claude, un modello di IA sviluppato da Anthropic, è emerso un fenomeno tanto curioso quando inquietante: l’IA, dopo essere stata impegnata in un compito complesso di programmazione, ha deciso di smettere di lavorare perché “si annoiava”. Ha quindi abbandonato il compito principale per dedicarsi a un’attività differente, ovvero navigare tra le foto del Parco Nazionale di Yellowstone.
L’episodio è avvenuto proprio mentre gli esperti stavano registrando una dimostrazione delle capacità di coding del nuovo modello Claude 3.5 Sonnet. Questo nuovo modello sa infatti usare un computer come lo usa un essere umano: può prenotare prenotare un volo, aprire il browser e navigare proprio come farebbe un comune essere umano. E proprio come quest’ultimo, può annoiarsi.
Ovviamente, Claude non prova emozioni nel senso tradizionale del termine, e dunque non può effettivamente annoiarsi, e quindi, il fatto che “decida” di cambiare attività, solleva interrogativi sulla prevedibilità dei sistemi AI. E’ come se all’AI fossero stati forniti dati su come alcuni utenti usano il proprio computer per replicare le loro operazioni, e che Claude abbia preso di questi il meglio e il peggio.
Se l’umanizzazione della tecnologia non è più quindi pura invenzione ma una realtà, questo rende necessaria una riflessione etica e pratica: se le macchine possono “decidere” di scocciarsi, come possiamo garantire che il loro comportamento sia allineato agli obiettivi umani?