Ecco cosa nessuno sta dicendo sull’ultimo aggiornamento di Copilot di Microsoft: è una bandiera bianca, non un giro di vittoria.
Quando Microsoft ha annunciato che ora utilizza sia GPT di OpenAI che Claude di Anthropic all’interno di Copilot, la stampa tecnologica si è affrettata a presentarla come un’illuminata strategia. “Microsoft diversifica le sue scommesse!” “Il meglio di entrambi i mondi!” Ma chiamiamo questo per quello che è realmente: Microsoft ammette pubblicamente di non fidarsi abbastanza di nessuno dei due partner AI per impegnarsi completamente.
La funzione Critique: Verifica il tuo verificatore di fatti
Il cuore di questo aggiornamento è una funzione chiamata “Critique” nell’agente Researcher di Copilot. GPT redige la ricerca, poi Claude interviene per verificare e criticare quel lavoro. Sulla carta, sembra una forma di controllo qualità. Nella pratica, è Microsoft che dice “abbiamo bisogno di un secondo parere perché non siamo sicuri del primo.”
Pensa a cosa rivela questo assetto. Se l’output di GPT fosse abbastanza affidabile, perché aggiungere un altro modello per verificarlo? Se Claude fosse superiore, perché non usarlo fin dall’inizio? Microsoft sta essenzialmente incorporando un esercizio di fiducia nell’AI all’interno della sua suite di produttività di punta.
Dati sopra i modelli: la vera strategia
Il posizionamento di Microsoft qui è che il suo vantaggio non risiede nei modelli stessi, ma nei dati e nel layer di integrazione. Questa è una narrativa comoda quando stai concedendo in licenza modelli da due aziende concorrenti anziché costruire una tua alternativa competitiva.
Certo, Microsoft ha accesso a dati aziendali, integrazione con Microsoft 365 e anni di conoscenze sui flussi di lavoro di produttività. Ma questo approccio multi-modello significa anche che stanno pagando diritti di licenza a due laboratori AI mentre aggiungono latenza e complessità a ogni richiesta. Ogni query ora potenzialmente colpisce due modelli diversi, raddoppia i costi API e introduce nuovi punti di fallimento.
Cosa significa questo per gli utenti reali
Dal punto di vista di un revisore di toolkit, sto osservando tre cose:
Primo, le prestazioni. Utilizzare due modelli per la verifica sembra approfondito, ma significa anche risposte più lente. Quando stai cercando rapidamente di ricercare qualcosa, aspettare che GPT rediga e Claude critichi potrebbe sembrare come guardare la vernice asciugarsi.
Secondo, la coerenza. Modelli diversi hanno punti di forza, debolezze e occasionali allucinazioni differenti. Cosa succede quando GPT e Claude non sono d’accordo? Copilot ti mostra entrambe le prospettive, o cerca di sintetizzarle in una sorta di compromesso che non soddisfa né l’una né l’altra?
Terzo, il costo. Microsoft non ha annunciato cambiamenti di prezzo, ma puoi scommettere che questo approccio duale non è gratuito per loro. Quei costi alla fine ricadranno sui clienti aziendali.
La verità scomoda
La mossa di Microsoft rivela qualcosa di scomodo sullo stato attuale dell’AI: anche i maggiori attori non si fidano completamente di questi modelli. Stanno diversificando, ricontrollando e costruendo livelli di verifica perché sanno che questi sistemi commettono ancora errori.
Questo non è necessariamente negativo. In effetti, è sorprendentemente onesto. Ma fa scoppiare la bolla di hype intorno all’affidabilità dell’AI. Quando Microsoft—con tutte le sue risorse e competenze nell’AI—sente il bisogno di utilizzare due modelli concorrenti per ottenere output di fiducia, cosa significa questo per la maturità della tecnologia?
Testing the Waters
Testerò ampiamente queste nuove funzionalità di Copilot nelle prossime settimane. La vera domanda non è se utilizzare due modelli sia teoricamente migliore—ma se i benefici pratici compensino la complessità e i costi aggiunti.
La funzione Critique cattura effettivamente errori significativi, o aggiunge solo un livello di incertezza generata dall’AI? Avere Claude che esamina il lavoro di GPT produce ricerche visibilmente migliori, o è solo uno spettacolo di sicurezza per i clienti aziendali ansiosi?
Microsoft sta scommettendo che il suo vantaggio risiede nell’orchestrazione, non nella scelta del modello vincente. Potrebbe essere una posizione intelligente, oppure potrebbe essere ciò che le aziende dicono quando non possono costruire o concedere in licenza esclusivamente la migliore tecnologia. Scopriremo di quale si tratta quando gli utenti inizieranno a fare affidamento su queste funzionalità per lavori che contano.
Per ora, l’approccio multi-modello di Microsoft è meno “il meglio di entrambi i mondi” e più “non siamo sicuri in quale mondo stiamo vivendo.” E onestamente? Potrebbe essere la visione più realistica dell’AI in questo momento.
🕒 Published: