Plan Apple dotyczący powolnego wprowadzania funkcji Apple Intelligence może oznaczać, że użytkownicy będą czekać co najmniej do stycznia, zanim najbardziej oczekiwane funkcje Siri zostaną upublicznione.
W swoim najnowszym biuletynie Power On, obserwator Apple Mark Gurman twierdzi, że będzie to iOS 18.3 lub iOS 18.4, które nie są spodziewane odpowiednio przed styczniem i marcem, kiedy asystent głosowy otrzyma długo oczekiwany generatywny przegląd AI.
Zdobądź iPada Pro M2 za 674,99 GBP w serwisie eBay z kodem rabatowym
iPad Pro (M2) z 512 GB pamięci masowej kosztuje zaledwie 674,99 GBP w serwisie eBay przy użyciu kodu SEPTSAVE20, co czyni go prawdziwą okazją.
- eBay
- 75 GBP zniżki z kodem SEPTSAVE20
- 674.99
Zobacz ofertę
Gurman donosi, że chociaż przydatna funkcja Type To Siri, zaprojektowana z myślą o sytuacjach, gdy rozmowa z asystentem nie jest pożądana lub możliwa, pojawi się w przyszłym miesiącu w iOS 18.1, to minie jeszcze co najmniej kilka miesięcy, gdy Apple upuści niektóre z głównych funkcji Siri, które naprawdę będą przypominać sztuczną inteligencję nowej generacji.
W biuletynie Gurman mówi: „Apple chce ukończyć iOS 18.3 do końca roku, przygotowując grunt pod styczniową premierę. Największą aktualizacją iOS 18 po iOS 18.1 będzie iOS 18.4, który będzie zawierał wiele nowych funkcji Siri (niektóre są rozważane dla iOS 18.3, jak mi powiedziano). Jej wydanie zaplanowano dopiero na marzec, po zakończeniu prac na początku lutego”.
Te zaawansowane możliwości obejmują świadomość na ekranie. Tak więc, jak wyjaśniło Apple na WWDC 24, będziesz mógł reagować na to, co jest aktualnie wyświetlane na iPhonie, iPadzie lub Macu.
Na przykład, jeśli otrzymasz adres, będziesz mógł powiedzieć „dodaj ten adres” do informacji o kontakcie. W przypadku zdjęć będzie można powiedzieć „dodaj to zdjęcie” do albumu lub innej aplikacji.
Będzie to dostępne dla aplikacji innych firm, które zdecydują się korzystać z nowego interfejsu API App Intents. Na pokładzie iOS 18.3 i 18.4 znajduje się również lepsze zrozumienie kontekstu osobistego.
Na WWDC 2024 w czerwcu Apple użył przykładu „kiedy ląduje lot mojej mamy?”, który skonsultowałby się z aplikacją Mail ze szczegółami lotu. Właściciel urządzenia mógłby również zapytać „jaki jest nasz plan na lunch?” i zeskanować konwersację Wiadomości dotyczącą tych planów. Użytkownik mógłby również zapytać, kiedy powinien wyjść, aby dostać się na lotnisko, rozpoznając kontekst z wielu aplikacji.
{ if ( event?.data && typeof event.data == 'string’ && event.data.indexOf(’lre:playerReady://’) == 0) { let sessionData = JSON.parse(event.data.slice(’lre:playerReady://’.length)); console.log(’lre:playerReady’, sessionData); let widget = window.anyclip.getWidget(null, sessionData.sessionId); if (widget) { console.log(’LRE WIDGET READY’, widget); widget.pauseMon(); } else { console.log(’LRE WIDGET NOT FOUND’); } } }); } ]]>
