Sam Altman i Jony Ive Prezentują Prototyp AI Bez Ekranu, Stawiający na Dotyk i Prostotę

Edytowane przez: Veronika Radoslavskaya

Długo wyczekiwana współpraca pomiędzy Samem Altmanem, szefem OpenAI, a legendarnym byłym projektantem Apple, Sir Jonym Ive'em, przechodzi od koncepcji do namacalnej rzeczywistości. Partnerzy, którzy niedawno połączyli swój wyspecjalizowany zespół sprzętowy (io Products) z OpenAI, ukończyli prace nad drugim działającym prototypem swojego tajemniczego urządzenia. Podczas niedawnej konferencji skupili się mniej na specyfikacjach technicznych, a bardziej na fundamentalnej filozofii stojącej za tym gadżetem: stworzeniu całkowicie nowego, pozbawionego ekranu i emocjonalnie rezonującego sposobu interakcji ze sztuczną inteligencją.

Kluczową cechą tego prototypu jest świadome odrzucenie współczesnego, hałaśliwego i nadmiernie ekranocentrycznego doświadczenia obliczeniowego. Ive opisał projekt jako dążenie do stworzenia czegoś „zabawnego” i „prostego” – urządzenia, którym użytkownicy mogliby posługiwać się „niemal beztrosko”, bez onieśmielenia czy niepokoju często towarzyszącego korzystaniu ze smartfonów. Ten nacisk na dotykowe, intuicyjne projektowanie doprowadził do dość nietypowych komentarzy na temat samego sprzętu. Zarówno Ive, jak i Altman zasugerowali, że materialność urządzenia – jego kształt, waga i faktura powierzchni – jest na tyle intrygująca, że użytkownicy odczują instynktowną potrzebę dotykania, a nawet gryzienia czy lizania go. Ta dbałość o szczegóły sensoryczne odzwierciedla filozofię Ive’a tworzenia produktów, które rezonują emocjonalnie i znikają w tle codziennego życia.

Technologicznie rzecz biorąc, urządzenie zostało zaprojektowane jako ostateczny Towarzysz Sztucznej Inteligencji Otoczenia. Integruje ono najbardziej zaawansowane modele OpenAI, dzięki czemu to sama inteligencja przejmuje ciężar obliczeniowy. Celem jest wyeliminowanie wieloetapowego procesu wymaganego obecnie do uzyskania dostępu do AI – otwierania aplikacji, wpisywania poleceń – poprzez wykorzystanie naturalnych wejść, takich jak głos i gesty. Ma być ono świadome kontekstu otoczenia użytkownika, jego kalendarza i bieżących rozmów, co sprawia, że potężne możliwości modelu językowego (LLM) stają się bezwysiłkową, płynną obecnością. Ostatecznym celem, jak podkreślił Altman, jest stworzenie urządzenia, które wie niemal wszystko o użytkowniku i jego otoczeniu, nie polegając przy tym na konwencjonalnym wyświetlaczu.

Ten ambitny projekt, którego premiera według Altmana może nastąpić „przed upływem dwóch lat”, ma na celu dostarczenie ponad 100 milionów towarzyszy AI i ugruntowanie swojej pozycji jako trzeciego niezbędnego urządzenia konsumenckiego, obok iPhone’a i MacBooka. Połączenie mistrzostwa projektowego Ive’a z przełomowymi badaniami OpenAI w dziedzinie sztucznej inteligencji stanowi ogromny zakład na przyszłość po erze smartfonów. Przyszłość ta ma być definiowana przez prostotę i fizyczną intuicję, a nie przez świecące ekrany.

Źródła

  • Gizmodo

  • OODAloop

  • OpenTools.ai

  • 9to5Mac

  • PYMNTS.com

  • Medium

Czy znalazłeś błąd lub niedokładność?

Rozważymy Twoje uwagi tak szybko, jak to możliwe.