La NPU ultra-basse consommation de VeriSilicon offre plus de 40 TOPS pour l’inférence LLM intégrée aux applications mobiles
Cette architecture écoénergétique s’adapte à tous les appareils compatibles avec l’IA, notamment les téléphones et les PC IASHANGHAI--(BUSINESS WIRE)--VeriSilicon (688521.SH) a annoncé aujourd’hui que son unité de traitement de réseau neuronal (NPU) ultra-basse consommation et hautes performances prend désormais en charge l’inférence intégrée de grands modèles de langage (LLM), avec des performances de calcul d’IA dépassant 40 TOPS. Cette architecture NPU écoénergétique est spécialement conçue pour répondre à la demande croissante de capacités d’IA générative sur les plateformes mobiles. Elle offre non seulement des performances de calcul élevées pour les PC IA et autres terminaux, mais est également optimisée pour répondre aux exigences de plus en plus strictes en matière d’efficacité éne...