Sam Altman e Jony Ive Presentano un Prototipo AI Senza Schermo Focalizzato sulla Semplicità Tattile
Modificato da: Veronika Radoslavskaya
La tanto attesa collaborazione tra Sam Altman, CEO di OpenAI, e il leggendario ex designer di Apple, Sir Jony Ive, sta passando dalla fase concettuale alla realizzazione concreta. I due partner, che di recente hanno unito il loro team specializzato in hardware (io Products) all'interno di OpenAI, hanno finalizzato un secondo prototipo funzionante del loro misterioso dispositivo. Intervenendo a una conferenza, si sono concentrati meno sulle specifiche tecniche e molto di più sulla filosofia centrale del progetto: un modo completamente nuovo, privo di schermo e capace di risuonare emotivamente, per interagire con l'intelligenza artificiale.
La caratteristica distintiva di questo prototipo risiede nel suo netto rifiuto dell'esperienza informatica moderna, rumorosa e incentrata sullo schermo. Ive ha descritto l'obiettivo del design come la creazione di qualcosa di intrinsecamente “giocoso” e “semplice”, un apparecchio che gli utenti possano maneggiare “quasi con noncuranza”, senza l'ansia o il senso di intimidazione tipici degli smartphone attuali. Questa enfasi sul design tattile e intuitivo ha portato a commenti insoliti riguardo all'hardware stesso. Sia Ive che Altman hanno lasciato intendere che la materialità del dispositivo – la sua forma, il peso e la consistenza superficiale – è talmente convincente da suscitare negli utenti un desiderio istintivo di toccarlo, e persino di morderlo o leccarlo. Questa cura maniacale per il dettaglio sensoriale è un chiaro riflesso della filosofia di Ive, volta a realizzare prodotti che si integrino emotivamente e svaniscano sullo sfondo della vita quotidiana.
Dal punto di vista tecnologico, l'apparecchio è concepito per essere il definitivo Compagno AI Ambientale. Esso sfrutta i modelli più avanzati di OpenAI, delegando interamente il carico computazionale all'intelligenza stessa. L'obiettivo è eliminare i molteplici passaggi necessari oggi per accedere all'IA, come l'apertura di un'app o la digitazione di un comando, privilegiando invece input naturali come la voce e i gesti. Il dispositivo è progettato per essere contestualmente consapevole dell'ambiente circostante l'utente, del suo calendario e delle conversazioni in corso. In questo modo, le potenti capacità di un modello linguistico di grandi dimensioni (LLM) diventano una presenza fluida e senza sforzo. Lo scopo finale, come sottolineato da Altman, è creare un apparecchio che conosca praticamente ogni aspetto dell'utente e del suo contesto, senza doversi affidare a un display convenzionale.
Questo progetto ambizioso, che Altman stima possa vedere la luce in “meno di due anni”, punta a distribuire oltre 100 milioni di questi compagni AI, posizionandosi come il terzo dispositivo di consumo essenziale, accanto all'iPhone e al MacBook. La fusione tra l'esperienza di design di Ive e la ricerca all'avanguardia di OpenAI sull'IA rappresenta una scommessa monumentale su un futuro post-smartphone. Un futuro in cui l'interazione umana con la tecnologia sarà definita dalla semplicità e dall'intuizione fisica, piuttosto che dalla luce costante degli schermi.
Fonti
Gizmodo
OODAloop
OpenTools.ai
9to5Mac
PYMNTS.com
Medium
Leggi altre notizie su questo argomento:
Hai trovato un errore o un'inaccuratezza?
Esamineremo il tuo commento il prima possibile.
