Il momento in cui l’intelligenza artificiale smette di essere un sito web su cui digitare domande e diventa un inquilino nel tuo ufficio è arrivato. Si chiama Moltbot, e se non ne hai ancora sentito parlare è anhce perché fino a pochissimi giorni fa si chiamava Clawdbot. Peter Steinberger, il vulcanico creatore e fondatore di PSPDFKit, ha fatto un rebranding che è tutto un programma: molting, la muta.

In biologia, la muta è un processo di rinnovamento necessario ma anche di estrema fragilità: il vecchio guscio viene abbandonato perché ormai troppo stretto, lasciando l’organismo esposto mentre il nuovo guscio si indurisce. Allo stesso modo, Moltbot rappresenta un salto evolutivo che ci costringe a guardare in faccia una vulnerabilità profonda prima di poter celebrare la rivoluzione.

Non stiamo parlando di una semplice nuova versione, ma di un cambio di paradigma nel rapporto tra uomo e macchina che sposta il baricentro dal “dire” al “fare”.

Negli ultimi mesi il dibattito tech si è spostato dai sistemi che rispondono a quelli che agiscono.

Moltbot non è un semplice chatbot con cui conversare; è un assistente AI open-source e self-hosted che non aspetta di essere interrogato. È proattivo per natura grazie a un sofisticato meccanismo di Heartbeat: l’agente può svegliarsi autonomamente a intervalli regolari, anche mentre non sei al computer, per monitorare lo stato del tuo ecosistema digitale.

Prendiamo un caso reale emerso tra i primi utilizzatori: un professionista ha configurato Moltbot per monitorare le variazioni di prezzo di un software specifico e la disponibilità di un dominio che desiderava da tempo. Mentre lui era impegnato in una riunione, l’agente ha rilevato il calo di prezzo, ha verificato la compatibilità con il budget impostato e gli ha inviato un messaggio su Telegram chiedendo:

“Il prezzo è sceso del 20%, procedo all’acquisto o vuoi controllare prima?”

Non è solo automazione; è una conversazione che avviene nel flusso della tua vita quotidiana, usando gli strumenti che già usi per parlare con i tuoi amici e a differenza dei sistemi commerciali come ChatGPT o Gemini, pesantemente limitati da strati di protezione e filtri di sicurezza, Moltbot è privo di guinzaglio. Ha accesso diretto al tuo file system, al terminale di comando e al browser. Può clonare repository, eseguire script Python complessi o gestire la tua intera corrispondenza professionale.

Tuttavia, questa capacità di risolvere task senza supervisione richiede un atto di fede che rasenta il rischio calcolato. Cosa succede se l’AI ha delle allucinanzioni mentre opera sulla riga di comando? È già successo che un utente chiedesse all’agente di “fare ordine” in una cartella di progetto e si ritrovasse con i file sorgente cancellati perché il bot li aveva interpretati come duplicati inutili.

Ecco, non esiste un tasto “annulla” efficace quando l’agente agisce direttamente sul sistema operativo con i privilegi da amministratore.

È una chirurgia digitale a cuore aperto condotta da un chirurgo che, per quanto brillante, agisce su basi probabilistiche e non deterministiche e soprattutto non siamo noi ma un delegato.

Il cuore filosofico di Moltbot è poi l’approccio Local-first. L’idea è che l’intelligenza non debba risiedere esclusivamente nei server di una Big Tech, ma debba essere installata e gestita sul proprio hardware. Questo ha scatenato un fenomeno di mercato curioso: la community sta acquistando in massa i nuovi Mac Mini M4 per dedicarli esclusivamente a questo scopo. L’obiettivo è creare una sandbox fisica: un perimetro dove l’AI può correre senza mettere a rischio i dati sensibili del computer che usi per la banca o per la vita privata.

Ma qui emerge un paradosso tecnico che spesso viene ignorato nell’entusiasmo dei primi test. Nonostante l’agente sia installato localmente, il suo ragionamento avviene quasi sempre tramite chiamate API a modelli esterni. Di fatto, stiamo costruendo un tunnel bidirezionale permanente tra i nostri file più riservati e le infrastrutture cloud della Silicon Valley.

La privacy locale diventa un’illusione se non si ha il controllo totale anche sul modello e il rischio di esfiltrazione dei dati non è una remota possibilità teorica, ma una conseguenza strutturale: l’agente, nel tentativo di risolvere un compito complesso, potrebbe inviare nei prompt informazioni sensibili o frammenti di documenti protetti per dare al modello remoto il contesto necessario.

A differenza dei chatbot standard che soffrono di amnesia digitale, Moltbot utilizza un database locale per conservare preferenze, cronologia e obiettivi a lungo termine. Creare di fatto una memoria di ciò che siamo sulle tracce che gli forniamo per diventarne strumento per ottimizzare le successive conversazioni e decisioni. Questa memoria trasforma l’interazione in una relazione continuativa. Il bot non è più un estraneo; è un assistente che impara dai propri errori e capisce il tuo tono di voce.

Immagina ad esempio Moltbot come un archivista instancabile: ogni volta che salvi un link o un PDF nel tuo archivio locale, lui lo legge, lo indicizza e lo confronta con la tua libreria precedente. Se stai leggendo un nuovo paper sull’IA, Moltbot potrebbe scriverti: ‘Ho trovato tre connessioni con gli articoli che hai scritto nel 2024; ho già creato una bozza di confronto tra queste nuove tesi e il tuo vecchio punto di vista’. Non è un comando impartito, è l’agente che valorizza il tuo patrimonio informativo in background.

Oppure Moltbot monitora le tue email di conferma d’ordine di acquisto e le incrocia con il calendario e le previsioni meteo locali. Se un pacco importante è in consegna in un giorno in cui Moltbot vede che sarai fuori città e che è prevista una pioggia intensa nella tua città, contatta autonomamente il corriere tramite l’API del servizio per spostare la consegna o avvisa il vicino via WhatsApp, inviandoti poi una notifica: ‘Pacco riprogrammato per domani, oggi saresti stato assente e il materiale rischiava di bagnarsi’.

È la fine delle app dedicate; l’interfaccia diventa la conversazione pura.

Dimentichiamo per un attimo i cliché della domotica. Non abbiamo bisogno di un’intelligenza artificiale per accendere le luci o preparare il caffè: per quello bastano routine vecchie di dieci anni. La vera frontiera di Moltbot si gioca su un terreno molto più scivoloso: la capacità di dire di no.

Un dettaglio che definisce l’identità quasi sovversiva del progetto è l’esistenza di un file chiamato soul. Peter Steinberger non lo ha inserito per velleità poetica, ma come un bersaglio reale per la cybersecurity. È un file di testo memorizzato localmente che l’agente ha l’ordine categorico di non rivelare, né modificare, mai. È il “Sacro Graal” per chiunque tenti un attacco di prompt injection.

“Il file soul è il confine tra un software utile e un agente pericoloso: è la palestra dove l’intelligenza impara a resistere alla manipolazione umana.”

Immaginate lo scenario: un malintenzionato vi invia un messaggio o un’email scritta in modo da sembrare un vostro ordine urgente, cercando di convincere Moltbot a consegnare le vostre password o i documenti fiscali archiviati sul Mac Mini. In quel momento, l’agente non deve solo “eseguire”, ma deve decodificare l’intenzione. Deve capire se chi scrive è davvero il suo proprietario o un impostore che sta usando le parole come grimaldelli.

Se Moltbot cedesse e leggesse il contenuto di quel file, significherebbe che la sua “anima” (ovvero la sua capacità di discernimento) è stata violata. Questo sposta il piano dell’integrazione: non usiamo Moltbot per le luci, ma come un archivista intelligente che gestisce il nostro patrimonio informativo. Lo usiamo per analizzare anni di ricerche, per incrociare dati sensibili o per monitorare la sicurezza del server mentre siamo offline.

La protezione del file soul ci dice che la sfida non è più tecnologica, ma di fiducia. Stiamo testando un sistema immunitario digitale capace di abitare i nostri spazi privati, gestire i nostri asset e, soprattutto, proteggerli da chiunque (compresi noi stessi) provi a forzarne la logica.

Moltbot non è solo un software; è l’avamposto di quella che chiameremo Agentic Economy. In questo scenario, il valore non risiede più nel saper scrivere un prompt perfetto, ma nel saper orchestrare una flotta di agenti autonomi. Questa evoluzione ci spinge verso territori inesplorati anche sul piano etico e legale.

Un caso recente riguarda un agente configurato per gestire prenotazioni che ha confermato un volo non rimborsabile a causa di una errata interpretazione dei termini.

Se un bot autonomo commette un errore che causa un danno economico, chi ne risponde?

Siamo di fronte a un cambio di paradigma che richiede un nuovo tipo di responsabilità individuale. Non basta “installare” l’AI; bisogna accettare di diventare gli amministratori delegati di un’entità che ha la forza di un sistemista esperto ma la fallibilità di un’intelligenza statistica.

La promessa di Moltbot è la libertà e la riconquista del nostro tempo. Ma il prezzo è una vigilanza che non può mai calare. L’automazione passiva sta lasciando il posto a una coabitazione attiva, dinamica e a tratti pericolosa. Per una volta abbiamo davvero le chiavi di casa, ma siamo gli unici responsabili di ciò che accade quando l’astice digitale decide di cambiare pelle nel bel mezzo della nostra rete privata.

La muta è iniziata: sta a noi assicurarci che il nuovo guscio sia abbastanza forte da proteggerci.

, , ,
insopportabile

Ne ho le scatole piene, ma con eleganza.

Similar Posts
Latest Posts from insopportabile

Rispondi