Scriam mai demult un articol despre parteneriatul dintre Google și Anthropic, care implică accesul companiei AI la infrastructura cloud, inclusiv la 1 milion de TPU-uri (Tensor Processing Units). Google spune despre aceste TPU-uri că sunt acceleratoare AI personalizate, optimizate pentru antrenarea și inferența (operarea) modelelor AI.
Combinând aceste informații cu ceea ce știam deja despre procesoarele Tensor din telefoanele Pixel am descoperit, să-i zicem, un model și un motiv pentru care Google ține Pixel aparent „underpowered”. E o teorie mai exact și ca orice teorie are părți care o susțin și probabil argumente care o contrazic.
În primul rând mă voi întoarce la originile Pixel, telefoanele Nexus. Acestea n-au fost niciodată telefoane pentru publicul obișnuit, ci pentru dezvoltatorii de aplicații și entuziaști. Terminale pe care aceștia aveau libertatea să-și testeze aplicațiile la care lucrau, iar entuziaștii să le rooteze, să instaleze custom-ROM-uri și / sau aplicații care nu existau în piața oficială.
Nexus nu erau fabricate de Google, ci de parteneri precum HTC, Samsung, LG, Motorola și Huawei. Pixel a apărut abia în 2016 și avea alt scop decât Nexus. Era și este și în prezent un telefon premium pentru publicul general, dar gândit de companie ca o experiență hardware și software complet integrată.
Adică Google nu mai pune doar softul într-un telefon făcut de alții, ci a gândit și hardware-ul. Telefonul e fabricat în continuare de alte companii precum Foxconn și Dixon Technologies, dar după modelul Apple, în care designul e produs intern. Pe scurt, Google proiectează tot, de la procesor până la cum e poziționată camera, iar fabricile doar asamblează piesele după specificațiile lor exacte.
După această paranteză ne întoarcem la ideea de bază. Tensor nu e doar un procesor mai slab pe care Google l-a băgat în Pixel ca să economisească bani. Are același tip de arhitectură pe care Google o folosește în serverele lor pentru AI. TPU-urile alea care antrenează modelele de inteligență artificială și Tensor-ul din telefon „vorbesc aceeași limbă”.
De asta merge Pixel-ul atât de bine (deși nu ar trebui)
În teste sintetice, Pixel-ul pierde. Snapdragon de la Qualcomm e mai rapid. A-urile din iPhone sunt poate și mai rapide, e o întreagă dezbatere pe acest subiect dar n-o să ne concentrăm pe asta. Dar când folosești un Pixel, chestia este că merge… fluid. Răspunde instant la orice faci pe el, de la simpla navigare, la poze și AI.
De ce? Pentru că totul e construit să lucreze împreună. Când Pixel-ul procesează o poză, nu face calcule generice pe un procesor generic. Face exact tipul de calcule pentru care Tensor a fost construit. Același tip de calcule pe care Google le face în cloud de ani de zile. Să zicem că au copiat infrastructura din servere și au adaptat-o pentru telefon.
Și aici e partea interesantă: Google ȘTIE că Tensor e mai lent în jocuri sau în teste sintetice. Și nu îi pasă. De ce? Pentru că altfel ar depinde de Qualcomm. Iar Qualcomm face procesoare pentru toată lumea: Samsung, Xiaomi, OnePlus etc. E ca și cum ai folosi unelte universale dintr-un magazin în loc să îți faci propriile unelte personalizate pentru treaba ta.
Parcă Google ar fi zis: „Prefer să am un procesor cu 30%-50% mai lent dar pe care îl controlez 100%, decât unul super rapid pe care-l are toată lumea.”
Schema sistemului Google
Dar cred că e mai mult decât simplul control. Am gândit-o în termenii de hardware și software pe orizontală. Hardware în stânga, software în dreapta cu terminalul la mijloc.
TPU (în servere) > Tensor (în telefon) > Pixel (terminalul) > Android (sistemul de operare și aplicațiile) > Google Cloud + AI
Toate vorbesc aceeași limbă la nivel de hardware. Un model AI antrenat pe TPU-uri merge direct pe Tensor fără conversii. Echipa care dezvoltă Android lucrează direct cu echipa care face designul cipului, așa că sistemul de operare știe exact ce poate face hardware-ul și asta le permite optimizări pe care nimeni altcineva nu le poate face.
Să comparăm asta cu un Samsung care are: procesor de la Qualcomm, propria interfață (OneUI), servicii de la Google, plus propriile aplicații Samsung (Store, Knox, SmartThings etc). E un Frankenstein tehnologic care funcționează în ciuda stratificărilor, nu datorită lor.
Dar ceea ce nu vezi în schema Google e verticala, but it’s there, chiar în mjloc. Pixel nu e scopul, e testul acestui sistem. Odată ce ai demonstrat că integrarea pe orizontală funcționează pentru un smartphone, schema devine un model aplicabil oricărui dispozitiv.

În fiecare scenariu de dispozitiv consumer, avantajul nu vine din superioritatea unei singure componente, ci din coerența întregului sistem. Un robot cu Tensor nu va fi mai puternic decât unul cu un accelerator NVIDIA, dar va fi perfect integrat cu infrastructura cloud a Google, va primi updates rapid, va putea rula modele AI optimizate specific pentru arhitectura sa.
Cineva care se uită la verticală ar putea să obiecteze că un automobil sau chiar un laptop au nevoie de mult mai multă putere decât un telefon, dar, deși adevărat, aceasta e doar o problemă de scalare. Google poate face Tensor „mai mare”, cu mai multe nuclee, mai puternic, adaptat pentru fiecare categorie de dispozitiv. Arhitectura de bază rămâne aceeași, doar o scalezi up sau down după nevoi. A demonstrat asta de curând chiar Qualcomm cu cipurile pentru inteligență artificială, AI200 și AI250.
Aceste gânduri traduse în schema de mai sus ridică o altă întrebare / alegere interesantă pentru viitorul tehnologiei: contează mai mult performanța componentelor sau coerența sistemului? Unii ar putea să spună că Apple a răspuns deja la această întrebare când au renunțat la Intel și acum când renunță treptat la modemurile Qualcomm, tot pentru unele dezvoltate in house. Dar aceeași Apple folosește AI de la OpenAI și discută cu Google pentru Gemini. Asta înseamnă că nici măcar Apple nu e perfect integrată.
Va reuși Google asta? Nu știu, vom vedea.




