NXP accélère l'IA de pointe grâce à l'acquisition de Kinara
NXP Semiconductors a annoncé aujourd'hui avoir finalisé l'acquisition de Kinara, pionnier dans le domaine des unités de traitement neuronal discret (DNPU) hautes performances et à faible consommation d'énergie. Cette alliance offre une voie évolutive vers une IA embarquée à faible latence et préservant la confidentialité dans les applications industrielles, automobiles, commerciales, médicales et intelligentes.
« L'IA en périphérie doit être locale, réactive, efficace et sécurisée », a déclaré Ali Osman Ors, directeur de la stratégie et des technologies IA/ML, traitement en périphérie chez NXP. « Grâce à l'intégration des NPU discrètes et des logiciels de Kinara dans le portefeuille de NXP, les développeurs disposent d'une plateforme complète pour déployer des applications allant du TinyML à l'IA générative, sans passer par le cloud. »
Pourquoi est-ce important ?
L'inférence en temps réel à la périphérie réduit la latence, protège les données, diminue les coûts de bande passante et améliore la résilience.
Le marché de l'accélération de l'IA en périphérie connaît une croissance rapide, les développeurs recherchant des performances sécurisées et rentables au niveau des appareils.
Ce que NXP y gagne
Accélération de l'IA évolutive : l'Ara-1 (~6 eTOPS) de Kinara pour les charges de travail de vision et l'Ara-2 (~40 eTOPS) pour les modèles linguistiques avancés (LLM) et les modèles de vision-langage (VLM) permettent aux clients de faire évoluer les performances indépendamment du MPU hôte.
Silicium IA spécialement conçu : Conçus spécifiquement pour l'inférence neuronale en périphérie (exécution de flux de données avec des matrices MAC denses, une mémoire sur puce étroitement couplée et une planification déterministe),les NPU discrètes (DNPU) telles que Ara-1 (~6 eTOPS) et Ara-2 (~40 eTOPS) offrent des performances par watt nettement supérieures à celles des CPU/GPU généraux.
Couverture des modèles modernes : exécution efficace des réseaux neuronaux convolutifs (CNN) et des modèles Transformer, allant de la vision classique à l'IA multimodale et générative.
Outils unifiés : le SDK, les outils d'optimisation de modèles et les modèles pré-optimisés de Kinara s'intègrent au logiciel eIQ® de NXP, offrant aux développeurs un flux unique de création, d'optimisation et de déploiement.
Flexibilité du système : déchargez les inférences lourdes vers le DNPU tandis que les processeurs d'application i.MX (par exemple, i.MX 8M Plus, i.MX 95) gèrent le pré/post-traitement, les E/S, l'interface utilisateur, la sécurité et la connectivité, optimisant ainsi la latence et l'énergie.
Ce que cela permet (exemples)
Industrie : contrôle qualité visuel en temps réel, maintenance prédictive et détection des dangers à la périphérie.
Santé et soins aux personnes âgées : surveillance multimodale sur l'appareil (voix + vision) avec une confidentialité renforcée.
Commerce de détail et espaces intelligents : analyses contextuelles et expériences génératives avec une réponse en moins d'une seconde.
Automobile et transport : assistants embarqués et fonctionnalités de perception sans dépendance constante au réseau.
Pour les développeurs
Une chaîne d'outils : eIQ® + Kinara SDK pour la compilation, la quantification/optimisation, le déploiement et le profilage.
Conceptions et modèles de référence : prototypage plus rapide pour la vision, la parole et l'IA multimodale.
Pile prête pour la production : sécurité, PMIC, connectivité et analogique issus du portefeuille de NXP, avec l'appui d'une assistance experte.
À propos de NXP
NXP Semiconductors N.V. permet des connexions et des infrastructures sécurisées pour un monde plus intelligent, en proposant des solutions qui rendent la vie plus facile, meilleure et plus sûre. NXP est à la pointe de l'innovation dans les applications embarquées pour les marchés de l'automobile, de l'industrie et de l'IoT, de la téléphonie mobile et des infrastructures de communication.
À propos de Kinara
Kinara conçoit des NPU discrètes hautes performances et à faible consommation d'énergie, ainsi qu'une pile logicielle IA complète pour les appareils périphériques, accélérant les CNN et les modèles basés sur Transformer, de la vision à l'IA générative.
Définitions
DNPU = Discrete Neural Processing Unit (unité de traitement neuronal discrète), un accélérateur d'IA autonome utilisé avec un processeur hôte. NPU = Neural Processing Unit (unité de traitement neuronal) (terme général). CNN = Convolutional Neural Network(réseau neuronal convolutif). LLM = Large Language Model(grand modèle linguistique). VLM = Vision-Language Model(modèle vision-langage). eTOPS =« equivalent tera operations per second » (équivalent en téra-opérationspar seconde), une mesure de débit indiquant des trillions d'opérations d'IA par seconde.