AI nel lavoro: 4 segnali concreti dal 2026
Roundup settimanale di 4 segnali pratici dal mondo AI: prezzi, interfacce, agenti produttivi e il valore di non automatizzare tutto. Il punto di vista di Omar Bortolato sugli impatti reali dell'intelligenza artificiale nel lavoro.

C'è troppo rumore attorno all'AI. Ogni settimana escono modelli, aggiornamenti, annunci e thread su LinkedIn scritti per impressionare più che per informare. Il problema non è la quantità di novità: è che la maggior parte di quelle novità non ti dice niente di utile su cosa fare domani mattina.
Io cerco segnali diversi. Non le demo. Non i benchmark tra modelli. Segnali che abbiano una ricaduta pratica su chi lavora con l'AI ogni giorno, chi ci costruisce prodotti, chi ci automatizza processi, chi decide se vale la pena integrare o aspettare.
Questa settimana ne ho trovati quattro che mi hanno fatto riflettere. Te li racconto con il contesto che conta e il commento che vorrei leggere, non quello che serve per fare engagement.
1. Stiamo entrando nell'era della scarsità di AI?
Per anni il trend è stato chiaro: i modelli diventavano più capaci e i prezzi scendevano. Era quasi un dogma. Compute più economica, modelli più efficienti, democratizzazione dell'AI per chiunque.
Qualcosa sta cambiando. Alcuni analisti segnalano che i modelli davvero performanti, quelli capaci di ragionamento complesso e di operare in autonomia su task lunghi, potrebbero costare significativamente di più nei prossimi cicli. I motivi sono tecnici e strutturali: il costo dell'inferenza per modelli grandi non scende in modo lineare, i datacenter energivori hanno limiti fisici, e la competizione per la compute più avanzata è reale.
Cosa cambia per chi lavora con l'AI? Molto. Se pianifichi la tua strategia AI dando per scontato che i modelli rimarranno economici o gratuiti, potresti trovarti a rivedere i margini di business con poco preavviso. Questo vale per chi usa API direttamente, per chi costruisce prodotti AI-first, e anche per le aziende che stanno pensando a rollout interni.
Il consiglio pratico è banale ma viene ignorato: tratta l'AI come una risorsa con un costo variabile, non come un'utility fissa. Pianifica scenari alternativi. Sai cosa faresti se il costo per milione di token triplicasse?
2. La potenza dei modelli supera la qualità delle interfacce
Questo segnale viene dall'evoluzione degli strumenti, non dei modelli. È un punto che sento poco discusso ma che mi sembra critico.
I modelli attuali sono capaci di molto più di quello che la maggior parte delle persone riesce effettivamente a estrarre. Il collo di bottiglia non è l'intelligenza del modello: è l'interfaccia tra il modello e il flusso di lavoro reale. Chat, prompt manuali, integrazioni rudimentali. Strumenti che erano pensati per dimostrare le capacità del modello, non per supportare chi lavora su task complessi e ripetitivi.
Il punto che mi interessa non è teorico. Se sei un professionista che usa Claude, GPT-4, Gemini o qualsiasi altro modello principalmente attraverso una chat web, probabilmente stai usando il 20-30% della capacità reale dello strumento. Non per mancanza di intelligenza, ma perché l'interfaccia non è progettata per il tuo workflow specifico.
L'investimento che vale non è solo scegliere il modello migliore. È costruire o scegliere lo strato di interfaccia che connette il modello a come lavori davvero. Questo può essere un'automazione n8n, un'integrazione via API, un agente personalizzato, o semplicemente un sistema di prompt strutturati che non devi reinventare ogni volta. Chi capisce questo prima degli altri ha un vantaggio competitivo reale.
3. Gli agenti AI stanno diventando seri. Non abbastanza da fidarsi ciecamente, però.
Il panorama degli agenti AI è cambiato in modo sostanziale negli ultimi mesi. Non parliamo più solo di esperimenti: ci sono sistemi agentici che vengono messi in produzione in contesti reali, con task complessi, con integrazioni su più piattaforme.
Il segnale che mi interessa non è la potenza degli agenti. È la maturità operativa. Quanto sono affidabili su task che non tollerano errori? Quanto è facile fare debug quando qualcosa va storto? Quanto è sostenibile il costo di supervisione umana che richiedono?
La risposta onesta, a metà 2026, è: dipende molto dal contesto. Su task con alta struttura e bassa variabilità, gli agenti funzionano bene. Su task creativi, ambigui, o che richiedono giudizio contestuale, il rischio di errori silenti è ancora alto.
La trappola più comune che vedo è selezionare un agente in base alla demo e poi scoprire che la produzione è un'altra cosa. Le demo sono ottimizzate per i casi in cui l'agente funziona. La produzione ti porta i casi in cui non funziona. Prima di mettere qualsiasi sistema agentico in un processo critico, fai girare scenari di stress test reali, non scenari dimostrativi.
4. Sapere quando non usare l'AI è una skill
Questo è probabilmente il segnale più controintuitivo della settimana, e quello che sottovalutiamo di più.
C'è una pressione enorme, in azienda e fuori, ad automatizzare tutto quello che si può. L'AI è disponibile, è potente, sembra un peccato non usarla. Il bias verso l'automazione è reale e in certi contesti è utile. Ma diventa un problema quando si applica indiscriminatamente.
Ci sono categorie di task dove l'AI introduce più rischio che valore. Task dove la variabilità del contesto è troppo alta per essere catturata da un prompt. Task dove l'errore ha conseguenze asimmetriche, dove sbagliare una volta cancella il vantaggio accumulato in cento esecuzioni corrette. Task dove la presenza umana ha un valore relazionale che nessun agente può sostituire, non per motivi romantici, ma perché il cliente o il collega lo percepisce e ne tiene conto.
La capacità di distinguere questi casi da quelli dove l'AI funziona bene è una competenza genuina, non una resistenza al cambiamento. Chi la sviluppa prende decisioni migliori su dove investire tempo, energie e budget nell'AI. Chi non la sviluppa tende a sprecare risorse su automatizzazioni che non reggono in produzione o, peggio, che producono danni nascosti.
Quattro segnali, un filo: l'AI funziona, ma richiede lucidità. Lucidità sui costi che potrebbero cambiare, sulle interfacce che ancora limitano l'utilizzo reale, sugli agenti da testare con rigore prima di fidarsi, e sui casi in cui non usarla è la scelta giusta.
Se ti ritrovi in uno di questi punti, o se uno ti impatta particolarmente nel tuo lavoro, scrivimi. Mi interessa capire dove siete con l'AI nelle vostre organizzazioni, non dove volete arrivare in teoria.