iPhone’y mają za mało RAM-u dla AI. Dlatego Apple wykorzysta sztuczkę z Androida

Apple nie może zostać z tyłu, jeśli chodzi o wykorzystanie sztucznej inteligencji na smartfonach. Sęk w tym, że iPhone’y mają pewne „wąskie gardło”: pamięć podręczną. RAM-u jest po prostu za mało, by AI miało gdzie się rozgościć. Co więc począć?

iPhone’om może brakować RAM-u

Smartfony Apple pełne są inteligentnych rozwiązań – zarówno konstrukcyjnych, jak i w kwestii oprogramowania. Hardware staje jednak przed nowymi wyzwaniami, którymi jeszcze rok czy dwa lata temu producenci urządzeń mobilnych nie musieli nawet zaprzątać sobie głowy. Na przykład (muzyka grozy w tle)… ChatGPT!

Tak, chatboty potrafią pochłaniać sporo zasobów. Jest to pewien problem dla smartfonów, które mają swoje ograniczenia, jeśli chodzi o dostępną pamięć podręczną. Na iPhone’ach może on przybierać na sile z uwagi na to, że smartfony te nigdy nie słynęły z dużej ilości RAM-u. Trzeba w tym momencie przypomnieć, że bazowe iPhone’y 15 mają 6 GB RAM, a modele Pro – 8 GB.

Genialne rozwiązania, na które ktoś już wpadł

W nowym artykule badaczy zatrudnionych przez Apple, zatytułowanym „LLM in flash: Efficient Large Language Model Inference with Limited Memory”, proponuje się kilka sposobów na radzenie sobie z wyzwaniami obsługi dużych modeli językowych na urządzeniach z ograniczoną ilością pamięci.

Jeden z pomysłów przypomina „wirtualny RAM”, z którego korzystają już producenci smartfonów z systemem Android. Otóż w przypadkach niedoborów RAM, dodatkowa pamięć „pożyczana” jest z pamięci masowej. Najwyraźniej podobne rozwiązanie chcieliby wdrożyć inżynierowie Apple w następnych modelach iPhone’ów.

Innymi zaproponowanymi systemami jest ponowne wykorzystanie już raz przetworzonych danych jako podstawę do kolejnych obliczeń, co zmniejsza potrzebę ciągłego pobierania do pamięci tych samych informacji. Do tego planuje się ulepszenie grupowania danych, co pozwoli na szybsze odczytywanie ich.

Połączenie tych metod może poskutkować obsługą nawet dwukrotnie bardziej złożonych zadań, niż w tym momencie umożliwia RAM w iPhone’ach. Otworzy to drogę do wdrażania nowych i znacznie bardziej zaawansowanych funkcji sztucznej inteligencji, w tym lepszego rozumienia języka mówionego przez Siri, szybkiej obróbki grafiki czy współpracy z aplikacjami rzeczywistości rozszerzonej.

Ciekawe, jak to się ma do plotek dotyczących tego, że Apple tworzy własny generatywny model sztucznej inteligencji o nazwie „Ajax”. Zaprojektowany jest tak, aby konkurować z takimi rozwiązaniami jak GPT-3 i GPT-4 OpenAI. To kluczowe, zwłaszcza w kontekście działań Microsoftu, który ma Copilota i Google, pracującego nad Bardem. Apple po prostu nie może sobie pozwolić na pokpienie tego tematu.