Cette architecture écoénergétique s’adapte à tous les appareils compatibles avec l’IA, notamment les téléphones et les PC IA


SHANGHAI--(BUSINESS WIRE)--VeriSilicon (688521.SH) a annoncé aujourd’hui que son unité de traitement de réseau neuronal (NPU) ultra-basse consommation et hautes performances prend désormais en charge l’inférence intégrée de grands modèles de langage (LLM), avec des performances de calcul d’IA dépassant 40 TOPS. Cette architecture NPU écoénergétique est spécialement conçue pour répondre à la demande croissante de capacités d’IA générative sur les plateformes mobiles. Elle offre non seulement des performances de calcul élevées pour les PC IA et autres terminaux, mais est également optimisée pour répondre aux exigences de plus en plus strictes en matière d’efficacité énergétique des téléphones IA et autres plateformes mobiles.
Construite sur une architecture hautement configurable et évolutive, la PI NPU ultra-basse consommation de VeriSilicon prend en charge le calcul de précision mixte, l’optimisation avancée de la parcimonie et le traitement parallèle. Sa conception intègre une gestion efficace de la mémoire et une accélération sensible à la parcimonie, réduisant ainsi la surcharge de calcul et la latence, garantissant un traitement de l’IA fluide et réactif. Elle prend en charge des centaines d’algorithmes d’IA, dont AI-NR et AI-SR, ainsi que des modèles d’IA de pointe tels que Stable Diffusion et LLaMA-7B. Elle s’intègre en outre parfaitement aux autres PI de traitement de VeriSilicon pour permettre un calcul hétérogène, permettant ainsi aux concepteurs de SoC de développer des solutions d’IA complètes répondant à divers besoins applicatifs.
La PI NPU ultra-basse consommation de VeriSilicon prend également en charge des frameworks d’IA populaires tels que TensorFlow Lite, ONNX et PyTorch, accélérant ainsi le déploiement et simplifiant l’intégration pour les clients dans divers cas d’utilisation de l’IA.
« Les appareils mobiles tels que les smartphones évoluent vers des serveurs d’IA personnels. Avec l’avancée rapide des technologies AIGC et LLM multimodales, la demande en calcul d’IA croît de manière exponentielle et devient un facteur de différenciation clé pour les produits mobiles », déclare Weijin Dai, directeur de la stratégie, vice-président exécutif et directeur général de la division PI chez VeriSilicon. « L’un des défis les plus importants pour supporter des charges de travail de calcul d’IA aussi élevées est la maîtrise de la consommation énergétique. VeriSilicon investit continuellement dans le développement de NPU ultra-basse consommation pour les téléphones et PC IA. Grâce à une étroite collaboration avec des partenaires leaders du secteur des SoC, nous sommes ravis de constater que notre technologie a été implémentée sur silicium pour les téléphones et PC IA de nouvelle génération. »
À propos de VeriSilicon
VeriSilicon s’engage à fournir à ses clients des services de silicium personnalisés, complets et uniques, basés sur une plateforme, ainsi que des services de licences PI pour semi-conducteurs en tirant parti de sa PI interne de semi-conducteurs. Pour plus d’informations, rendez-vous sur : www.verisilicon.com
Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.
Contacts
Contact médias : press@verisilicon.com