𝗡𝗼𝘁𝗲𝗯𝗼𝗼𝗸𝗟𝗠 𝗰𝗼𝗻 𝗚𝗲𝗺𝗶𝗻𝗶 𝗲 𝗖𝗹𝗮𝘂𝗱𝗲: 𝗶𝗻𝘁𝗲𝗿𝗿𝗼𝗴𝗮𝗿𝗲 𝗶 𝗻𝗼𝘁𝗲𝗯𝗼𝗼𝗸 𝗱𝗮𝗹𝗹'𝗲𝘀𝘁𝗲𝗿𝗻𝗼
NotebookLM può essere interrogato da Gemini e Claude. Confronto tra notebook, accesso dinamico alle fonti e limiti dell'integrazione esterna.
NotebookLM è nato come ambiente di lavoro chiuso. Si caricano le fonti, si configura lo spazio, si lavora al suo interno. Le risposte restano dentro il notebook, gli output sono quelli che l’interfaccia mette a disposizione, e ogni notebook è un mondo separato dagli altri. Per molti utilizzi questo è sufficiente e funziona bene.
La novità è che quel confine si sta aprendo. I notebook di NotebookLM possono diventare fonti consultabili da altri sistemi. Gemini li integra nativamente come riferimenti nelle proprie conversazioni. Claude può accedervi attraverso il protocollo MCP. In entrambi i casi il risultato è lo stesso, il notebook esce dal proprio perimetro e diventa una fonte di conoscenza interrogabile dall’esterno.
Non si tratta di un dettaglio tecnico riservato agli sviluppatori, ma di un cambio di ruolo dello strumento. NotebookLM passa da applicazione autonoma a repository di conoscenza dentro un ecosistema più ampio.
Questo articolo esplora cosa diventa possibile quando i notebook escono dal proprio recinto, non ripete la procedura tecnica per configurare il collegamento via MCP, già documentata in un tutorial dedicato. Si concentra invece sul valore pratico, quali capacità si guadagnano, quali limiti si incontrano, e perché la qualità della preparazione del notebook diventa ancora più importante quando quel notebook viene interrogato dall’esterno.
Come si accede dall’esterno
I canali di accesso oggi sono due, con caratteristiche diverse per semplicità di attivazione e configurazione richiesta.
Gemini
L’integrazione più immediata è quella nativa in Gemini. Nella chat di Gemini, cliccando sull’icona + per aggiungere riferimenti, si possono selezionare i notebook dell’account NotebookLM associato allo stesso account Google. Il notebook diventa una fonte a cui Gemini attinge per rispondere, esattamente come accade con i documenti di Drive o i file caricati manualmente. Come per molte funzionalità Google, il rilascio è scaglionato e la disponibilità può variare tra profili diversi.
MCP e Claude
L’altra via passa per il protocollo MCP (Model Context Protocol), uno standard aperto di comunicazione tra sistemi. Claude può connettersi a NotebookLM attraverso un server MCP dedicato, potendo interrogare i notebook come farebbe con qualsiasi altra fonte di dati. La configurazione richiede alcuni passaggi tecnici, documentati nel dettaglio nel tutorial in tre parti (prima, seconda, terza). MCP non è un protocollo proprietario, è stato donato alla Linux Foundation e Google stessa lo ha ufficialmente adottato insieme ad altre aziende. Questo rende plausibile che in futuro altri sistemi possano usarlo per accedere a NotebookLM.
Un elemento in comune
Quale che sia il canale scelto, l’interazione avviene con l’area Chat di NotebookLM, non con lo Studio. Questo significa che dall’esterno si accede alle risposte generate a partire dalle fonti caricate, ma non alle note salvate, alle guide audio o ai podcast. È una distinzione che conta e su cui si tornerà più avanti.
Cosa diventa possibile
Confrontare notebook diversi nella stessa conversazione
Dentro NotebookLM si lavora sempre su un notebook alla volta. Se si hanno due notebook con prospettive diverse sullo stesso tema, li si può analizzare separatamente ma non metterli a confronto diretto. Dall’esterno questo vincolo cade.
Un esempio concreto viene dall’analisi che ho documentato nella terza parte del tutorial MCP. L’obiettivo era capire come sta evolvendo la giurisprudenza sull’AI generativa. Il materiale era organizzato in due notebook separati, uno con il mio libro Creatività ibrida, in cui avevo raccolto casi emblematici, l’altro con due sentenze più recenti (Bartz contro Anthropic e Getty Images contro Stability AI). Lavorando dentro NotebookLM avrei potuto analizzarli solo uno alla volta, costruendo mentalmente il confronto, oppure avrei dovuto creare un terzo notebook con tutte le fonti. Claude ha interrogato entrambi i notebook nella stessa sessione, identificando pattern comuni e divergenze nei ragionamenti giuridici in modo diretto. La comparazione tra corpus diversi non era un passaggio aggiuntivo da fare a mano, era parte del flusso di lavoro.
Questo vantaggio è specifico dell’accesso esterno e non ha equivalenti dentro NotebookLM. Ogni volta che il lavoro richiede di incrociare fonti organizzate in notebook separati, la possibilità di interrogarli insieme nella stessa conversazione cambia la qualità dell’analisi.
Le capacità che l’LLM porta al notebook
La sezione Studio di NotebookLM permette di generare guide audio, podcast, FAQ, briefing e altri formati a partire dalle fonti caricate. Ma tutto avviene dentro il perimetro del notebook, con le fonti definite in fase di configurazione. Quando un notebook viene interrogato da Gemini o da Claude, il perimetro accessibile cambia, la differenza più significativa non è tanto nel tipo di output, ma nell’accesso dinamico alle informazioni. NotebookLM può caricare fonti da Google Drive, ma lo fa nel momento in cui si costruisce la sezione fonti del notebook. Una volta configurato, il notebook lavora con quel set di documenti. Gemini e Claude operano in modo diverso: accedono a una varietà di repository mentre elaborano le risposte. Nella stessa sessione in cui interrogano un notebook possono consultare Drive, email, calendario, fare ricerche web o deep research, e combinare tutto questo con il contenuto estratto dalle fonti del notebook.
Questo cambia la natura del lavoro. L’LLM può prendere un’analisi estratta dal notebook e contestualizzarla con dati aggiornati trovati in rete. Può incrociare il contenuto di un notebook con informazioni da un’email o da un documento su Drive senza che quei materiali debbano essere stati caricati preventivamente come fonti. Può generare output strutturati, documenti, presentazioni, analisi comparative, che integrano fonti interne ed esterne in un unico flusso.
Questa combinazione è potente ma richiede attenzione. Quando si chiede all’LLM di generare un output complesso a partire dalle fonti di un notebook, si sta delegando non solo l’estrazione delle informazioni ma anche la loro rielaborazione. E gli output possono andare ben oltre il testo, una timeline interattiva in HTML che visualizza l’evoluzione cronologica dei casi contenuti nelle fonti, un grafico comparativo, una presentazione, un’applicazione web che permette di esplorare i dati in modo dinamico. L’LLM può produrre risultati che appaiono coerenti e ben costruiti ma che contengono imprecisioni o interpretazioni non supportate dalle fonti. Più l’output è articolato, più la supervisione dell’utente diventa necessaria. Non è un limite del metodo, è una caratteristica del lavoro con le AI generative che in questo contesto va tenuta presente con particolare attenzione.
Il vantaggio per l’LLM, non solo per il notebook
La relazione tra NotebookLM e l’LLM esterno non è a senso unico. Il notebook guadagna capacità di elaborazione, ma anche l’LLM guadagna qualcosa che da solo non ha, un’ampiezza documentale che nativamente non possiede.
Gemini e Claude hanno limiti concreti nel numero di documenti che possono processare in una singola conversazione. La finestra di contesto, per quanto ampia, si esaurisce. Un notebook NotebookLM può contenere fino a 50 fonti, indicizzate e interrogabili in modo mirato. Collegandosi a uno o più notebook, l’LLM accede a un corpus documentale che non potrebbe gestire caricando i singoli file direttamente nella conversazione.
Il vantaggio non è solo quantitativo. Le fonti in un notebook sono già state selezionate, organizzate, eventualmente distillate. L’LLM non riceve documenti grezzi da processare, riceve risposte costruite su fonti curate. È la differenza tra chiedere a qualcuno di leggere cinquanta documenti e chiedere a un ricercatore che li ha già studiati di rispondere a domande specifiche.
I limiti dell’accesso esterno
Accedere a NotebookLM dall’esterno apre possibilità nuove, ma comporta anche perdite che vanno conosciute.
La prima riguarda lo Studio. Dall’esterno si interagisce solo con l’area chat di NotebookLM, non con lo Studio. Questo significa che le note salvate, le guide audio, i podcast, le FAQ e tutti gli altri output generati nello Studio non sono accessibili. Se si è investito tempo nel costruire materiale nello Studio di un notebook, quel materiale resta disponibile solo dentro NotebookLM.
La seconda riguarda la granularità nella selezione delle fonti. Dentro NotebookLM si possono selezionare o deselezionare le singole fonti prima di porre una domanda, restringendo il campo a un sottoinsieme specifico del materiale caricato. Dall’esterno questa possibilità non c’è, l’LLM lavora con l’intero contenuto del notebook. Per analisi che richiedono di isolare un gruppo specifico di fonti, la soluzione è organizzare il materiale in notebook separati fin dall’inizio, sapendo che dall’esterno ogni notebook viene trattato come un blocco unico.
La terza riguarda la visibilità sulla personalizzazione. Le query inviate dall’esterno passano comunque attraverso l’area chat di NotebookLM, e le risposte vengono generate lì. Questo significa che le eventuali istruzioni personalizzate configurate nel notebook influenzano le risposte anche quando la domanda arriva da Claude o da Gemini. Quello che l’LLM esterno non ha è la consapevolezza di quella configurazione. Non sa quali istruzioni sono state impostate, non può adattarsi a esse, non può compensare se la personalizzazione è incompleta o inadeguata. La qualità della configurazione del notebook lavora in modo silenzioso ma concreto, e il risultato si vede nelle risposte senza che l’LLM esterno possa intervenire su quel livello.
Questi limiti non annullano il valore dell’accesso esterno, ma ridefiniscono l’equilibrio. Si perde la granularità e il controllo diretto di NotebookLM, si guadagnano le capacità elaborative, generative e integrative dell’LLM esterno. Sono perdite e guadagni su piani diversi, ed è utile saperlo prima di decidere quando lavorare dentro NotebookLM e quando interrogarlo dall’esterno.
La preparazione del notebook conta di più, non di meno
Tutto quello che si è detto sui limiti dell’accesso esterno converge su un punto pratico. Quando un notebook viene interrogato dall’esterno, la qualità delle fonti e della loro organizzazione diventa il fattore determinante.
Dentro NotebookLM si può compensare in parte un notebook imperfetto. Si selezionano solo le fonti rilevanti, si riformula la domanda, si aggiustano le istruzioni personalizzate fino a ottenere risposte migliori. L’interazione diretta con l’interfaccia offre margini di manovra. Dall’esterno quei margini si riducono. L’LLM lavora con tutto il notebook, non vede la configurazione, non può selezionare le fonti. Quello che riceve dipende interamente da come il notebook è stato costruito.
Un notebook con fonti selezionate, organizzate per tema, eventualmente distillate nei contenuti più rilevanti, produce risposte precise anche quando interrogato da un sistema che non conosce le sue regole interne. Un notebook disordinato, con fonti ridondanti o mal organizzate, produce risposte mediocri indipendentemente dalla potenza dell’LLM che lo interroga.
Chi ha già lavorato sulla preparazione del proprio ambiente NotebookLM si troverà avvantaggiato. Chi non lo ha fatto troverà nell’accesso esterno un motivo in più per investire quel tempo.
Direzione chiara, percorso in costruzione
I canali per accedere a NotebookLM dall’esterno oggi sono due. L’integrazione in Gemini è la più semplice ed è immediata anche per gli account gratuiti, mentre il collegamento via MCP richiede configurazione tecnica e passa per un server sviluppato dalla community, ma potenzialmente apre le porte al collegamento con qualunque LLM in grado di supportare il protocollo.
A proposito di MCP, Anthropic ha donato il protocollo alla Linux Foundation attraverso l’Agentic AI Foundation, trasformandolo in uno standard indipendente da qualsiasi singola azienda. Google l’ha ufficialmente adottato e ha già rilasciato server propri per collegare i suoi servizi, Analytics fra gli altri. Il numero di piattaforme che supportano il protocollo cresce. La tendenza va verso un ecosistema in cui gli strumenti AI non sono isole separate ma nodi che comunicano tra loro, e i notebook di NotebookLM sono un esempio concreto di come questa comunicazione può funzionare nella pratica.
Chi vuole approfondire nel dettaglio il funzionamento di NotebookLM trova il manuale completo su GitHub, aggiornato con le evoluzioni dello strumento.


