Site icon Amicopc.com

Apple sfida ChatGPT con ReALM

Apple ha presentato un nuovo piccolo modello linguistico chiamato ReALM (Reference Resolution As Language Modeling), progettato per funzionare su un telefono e rendere gli assistenti vocali come Siri più intelligenti aiutandoli a comprendere il contesto e i riferimenti ambigui.

Sapevate che iOS 18 punterà sull’IA: Apple fa una importante acquisizione?

Questo avviene prima del lancio di iOS 18 a giugno al WWDC 2024, dove ci aspettiamo un grande impulso dietro un nuovo Siri 2.0, anche se non è chiaro se questo modello verrà integrato in Siri in tempo. Questa non è la prima incursione di Apple nello spazio dell’intelligenza artificiale negli ultimi mesi, con una miscela di nuovi modelli, strumenti per aumentare l’efficienza dell’IA su dispositivi piccoli e partnership, che dipingono tutti un quadro di un’azienda pronta a rendere l’IA il fulcro del suo business.

ReALM: L’IA di Apple

iOS 18 IA – Amicopc.com

ReALM è l’ultima novità del rapidamente crescente team di ricerca sull’IA di Apple e il primo a concentrarsi specificamente sul miglioramento dei modelli esistenti, rendendoli più veloci, intelligenti ed efficienti. L’azienda afferma che supera persino il GPT-4 di OpenAI su determinati compiti.

I dettagli sono stati rilasciati in un nuovo documento di ricerca aperto di Apple pubblicato venerdì e riportato per la prima volta da Venture Beat lunedì. Apple non ha commentato la ricerca o se sarà effettivamente parte di iOS 18.

Cosa significa ReALM per l’impegno di Apple nell’IA?

Apple sembra adottare attualmente un approccio “buttare tutto e vedere cosa resta” all’IA. Ci sono voci di partnership con Google, Baidu e persino OpenAI. L’azienda ha messo in campo modelli e strumenti impressionanti per rendere più facile eseguire l’IA localmente.

Il produttore di iPhone lavora sulla ricerca sull’IA da più di un decennio, con gran parte di essa nascosta all’interno di app o servizi. Gran parte della ricerca si è concentrata su modi per eseguire modelli di IA localmente, senza affidarsi all’invio di grandi quantità di dati da elaborare nel cloud. Questo è sia essenziale per mantenere basso il costo di esecuzione delle applicazioni di IA, sia per soddisfare i rigorosi requisiti di privacy di Apple.

Come funziona ReALM?

ReALM è minuscolo rispetto a modelli come GPT-4, ma questo perché non deve fare tutto. Il suo scopo è fornire contesto ad altri modelli di IA come Siri. È un modello visuale che ricostruisce lo schermo e etichetta ogni entità sullo schermo e la sua posizione. Ciò crea una rappresentazione basata su testo della disposizione visiva che può essere passata all’assistente vocale per fornire indizi di contesto per le richieste degli utenti. Per quanto riguarda l’accuratezza, Apple afferma che ReALM si comporta altrettanto bene di GPT-4 su diversi parametri chiave nonostante sia più piccolo e veloce.

Cosa significa ciò per Siri?

Ciò significa che se una versione futura di ReALM viene implementata su Sir, allora Siri avrà una migliore comprensione di ciò che l’utente intende quando gli dice di aprire questa app, o se può dirmi cosa significa questa parola in un’immagine.

Ciò darebbe anche a Siri maggiori capacità di conversazione senza dover implementare completamente un grande modello linguistico su scala di Gemini. Quando legato ad altri recenti documenti di ricerca di Apple che consentono risposte “one shot” – dove l’IA può ottenere la risposta da un’unica richiesta – è un segno che Apple sta investendo ancora pesantemente nello spazio degli assistenti AI e non si affida solo a modelli esterni.

Exit mobile version