Siri 2.0 i „Oczy” Apple: Wielki Sojusz z Google i Nowy Ekosystem Wearables
W świecie technologii rok 2026 zapisze się jako moment, w którym Apple oficjalnie uznało, że w wyścigu zbrojeń AI nie wygra w pojedynkę. Historyczne porozumienie z Google oraz ofensywa w segmencie inteligentnych akcesoriów to jasny sygnał: iPhone przestaje być tylko ekranem, a staje się centrum „wizualnej inteligencji”.
Siri zyskuje „Mózg” od Google Gemini
Po latach narzekań na ograniczenia Siri, Apple zdecydowało się na radykalny krok. Nowa generacja asystenta, która zadebiutuje w pełnej krasie wraz z iOS 27, opiera się na hybrydowym modelu działania.
-
Prywatność przede wszystkim: Proste zadania i dane osobiste są nadal przetwarzane lokalnie przez Apple Foundation Models.
-
Wiedza Google: Złożone pytania, rozumienie kontekstu świata i zaawansowane rozumowanie są przekazywane do modeli Google Gemini.
Pierwsze efekty tej współpracy zobaczymy już w nadchodzącej aktualizacji iOS 27.0, która ma wprowadzić Siri zdolną do wykonywania wieloetapowych zadań wewnątrz aplikacji (np. „Siri, znajdź w moich mailach potwierdzenie rezerwacji i dodaj je do kalendarza, a potem wyślij trasę do mojej żony”).
Wearables AI: Apple chce widzieć to, co Ty
Największą nowością są jednak urządzenia, które mają stać się „oczami” nowej Siri. Apple pracuje nad trzema kluczowymi produktami, które wykorzystują kamery nie do robienia zdjęć, lecz do rozumienia otoczenia.
1. Inteligentne Okulary (Apple Glasses)
To najbardziej zaawansowany projekt (kodowa nazwa N50). W przeciwieństwie do Vision Pro, są to lekkie oprawki przypominające klasyczne okulary.
-
Brak ekranu: W pierwszej wersji skupiają się na dźwięku i obrazie z kamer.
-
Visual Intelligence: Możesz spojrzeć na menu w obcym języku, a Siri od razu je przetłumaczy lub podpowie, które dania są bezglutenowe.
-
Produkcja: Ma ruszyć w grudniu 2026 roku.
2. AI Pendant (Wisiorek/Broszka)
Urządzenie wielkości AirTaga, które można przypiąć do ubrania lub nosić na szyi.
-
Zawsze aktywna kamera: Rejestruje otoczenie, pozwalając Siri na bieżąco analizować sytuację (np. „Gdzie położyłem klucze?”).
-
Akcesorium do iPhone’a: Nie jest to samodzielne urządzenie, lecz „zewnętrzny sensor” dla Twojego smartfona.
3. AirPods z kamerami
To najbardziej zaskakujący element układanki. Nowe słuchawki mają posiadać miniaturowe kamery na podczerwień.
-
Sterowanie gestami: Kamery mogą śledzić ruchy rąk w przestrzeni przed użytkownikiem.
-
Świadomość przestrzenna: Pomagają w nawigacji i lepszym dopasowaniu dźwięku przestrzennego do otoczenia.
Dlaczego to zmiana paradygmatu?
Apple przesuwa akcent z „AI w tekście” na AI multimodalną. Dzięki kamerom w okularach czy wisiorku, Siri przestaje być głosem w pudełku, a zaczyna rozumieć świat w czasie rzeczywistym. Współpraca z Google daje Apple dostęp do potężnej bazy danych i modeli językowych, których budowanie zajęłoby firmie z Cupertino lata.
Wartość umowy: Szacuje się, że Apple płaci Google około 1 miliarda dolarów rocznie za licencjonowanie technologii Gemini, co jest naturalnym rozwinięciem ich wieloletniej współpracy w wyszukiwarkach.
Kiedy to trafi do naszych kieszeni (i na uszy)?
-
Wiosna 2026: Premiera iOS 26.4 z pierwszymi funkcjami „Siri powered by Gemini”.
-
Jesień 2026: Premiera serii iPhone 18 i nowych AirPods z funkcjami AI.
-
Początek 2027: Oficjalny rynkowy debiut okularów Apple Glasses.
Comments are closed, but trackbacks and pingbacks are open.