Des experts ont développé une méthode innovante capable de faire fonctionner une Intelligence Artificielle localement sur des appareils ayant une petite mémoire vive.
De nos jours, les smartphones offrent des performances élevées et permettent aux utilisateurs de profiter pleinement de l’IA sans avoir à compter sur une connexion Internet. Bien que les fabricants d’Android aient déjà annoncé des avancées dans ce domaine, Apple n’a pas encore communiqué à ce sujet.
Toutefois, les développeurs de l’entreprise ont tout de même publié un article spécialisé pour en parler. Selon cet article, les Large Language Models (LLM) peuvent désormais utiliser les capacités de calcul locales même avec une mémoire limitée. Cela devrait particulièrement intéresser les utilisateurs d’Apple, car ces appareils ont tendance à offrir une gestion optimisée de la mémoire vive.
Les développeurs ont trouvé des techniques pour accroître considérablement les performances de l’IA sur les applications utilisées directement sur ces appareils. En effet, les résultats ont montré une augmentation de 4 à 5 fois pour le CPU et de 20 à 25 fois pour le GPU par rapport aux processus de chargement traditionnels.
Ce qui est encore plus intéressant, c’est que cette avancée ne concerne pas uniquement les nouveaux smartphones. Les nombreux résultats obtenus suggèrent que les utilisateurs d’anciennes générations d’iPhone pourront également profiter de ces performances incroyables lors de l’utilisation de l’IA, notamment lors des conversations avec ChatGPT ou d’autres LLM.
En somme, cette méthode innovante pourrait offrir à de nombreux utilisateurs Apple des résultats bénéfiques et leur éviter de devoir acheter un nouveau smartphone pour pouvoir profiter de l’IA.
Source : Android Authority
Un commentaire
Pingback: Apple rachète une start-up en IA spécialisée dans l'optimisation des composants de fabrication - Tech-Connect