SiMa.ai obtient un financement de 70 millions de dollars pour introduire une puce GenAI multimodale

SiMa.ai, une startup basée dans la Silicon Valley produisant des plates-formes de systèmes sur puce (SoC) ML embarquées, a annoncé aujourd'hui avoir levé un cycle de financement d'extension de 70 millions de dollars alors qu'elle prévoit d'apporter son chipset de deuxième génération, spécialement conçu pour le multimodal. traitement génératif de l'IA, sur le marché.

Selon Gartner, le marché mondial des puces prenant en charge l’IA devrait plus que doubler d’ici 2027 pour atteindre 119,4 milliards de dollars par rapport à 2023. Cependant, seuls quelques acteurs ont commencé à produire des semi-conducteurs dédiés aux applications d’IA. La plupart des principaux concurrents se sont initialement concentrés sur la prise en charge de l’IA dans le cloud. Néanmoins, divers rapports prédisent une croissance significative du marché de l’IA en périphérie, ce qui signifie que le traitement matériel des calculs d’IA est plus proche de la source de collecte de données que dans un cloud centralisé. SiMa.ai, du nom de Seema, le mot hindi signifiant « frontière », s'efforce de tirer parti de ce changement en proposant son SoC d'IA de pointe aux organisations des secteurs de la fabrication industrielle, de la vente au détail, de l'aérospatiale, de la défense, de l'agriculture et de la santé.

La startup basée à San Jose, qui cible le segment de marché entre 5 W et 25 W de consommation d'énergie, a lancé son premier SoC ML pour intégrer l'IA et le ML via une combinaison logicielle-matérielle intégrée. Cela inclut son chipset propriétaire et son logiciel sans code appelé Palette. La combinaison a déjà été utilisée par plus de 50 entreprises dans le monde, a déclaré à Testeur Joe Krishna Rangasayee, fondateur et PDG de SiMa.ai.

La startup vante que sa génération actuelle de ML SoC a fourni les résultats FPS/W les plus élevés sur le benchmark MLPerf dans les catégories de divisions fermées, Edge et Power MLPerf Inference 4.0. Cependant, le chipset de première génération était axé sur la vision par ordinateur classique.

Alors que la demande pour GenAI augmente, SiMa.ai devrait introduire son SoC ML de deuxième génération au premier trimestre 2025, en mettant l'accent sur la fourniture à ses clients d'une capacité GenAI multimodale. Le nouveau SoC constituera un « changement évolutif » par rapport à son prédécesseur avec « quelques ajustements architecturaux » par rapport au chipset ML existant, a déclaré Rangasayee. Il a ajouté que les concepts fondamentaux resteraient les mêmes.

Le nouveau SoC GenAI s'adapterait à n'importe quel cadre, réseau, modèle et capteur – similaire à la plate-forme ML existante de l'entreprise – et serait également compatible avec n'importe quelle modalité, y compris l'audio, la parole, le texte et l'image. Cela fonctionnerait comme une plate-forme unique pour toute l’IA à travers la vision par ordinateur, les transformateurs et la GenAI multimodale, a déclaré la startup.

« Vous ne pouvez pas prédire l'avenir, mais vous pouvez choisir le vecteur et dire : c'est le vecteur sur lequel je veux parier. Et je souhaite continuer à évoluer autour de mon vecteur. C'est un peu l'approche que nous avons adoptée sur le plan architectural », a déclaré Rangasayee. «Mais fondamentalement, nous n'avons pas vraiment renoncé ni dû changer radicalement notre architecture. C’est également l’avantage d’adopter une architecture centrée sur le logiciel qui permet plus de flexibilité et d’agilité.

SiMa.ai a le taïwanais TSMC comme partenaire de fabrication pour ses chipsets IA de première et de deuxième génération et Arm Holdings comme fournisseur de son sous-système de calcul. Le chipset de deuxième génération sera basé sur la technologie de processus 6 nm de TSMC et comprendra des processeurs de vision intégrés Synopsys EV74 pour le pré- et post-traitement dans les applications de vision par ordinateur.

La startup considère parmi ses concurrents des opérateurs historiques tels que NXP, Texas Instruments, STMicro, Renaissance and Microchip Technology et Nvidia, ainsi que des startups de puces IA comme Hailo. Cependant, il considère Nvidia comme le principal concurrent, tout comme les autres startups de puces IA.

Rangasayee a déclaré à Testeur Joe que même si Nvidia est « fantastique dans le cloud », il n'a pas construit de plate-forme pour la périphérie. Il estime que Nvidia ne dispose pas d’une efficacité énergétique et de logiciels adéquats pour l’IA de pointe. De même, il a affirmé que d’autres startups construisant des chipsets d’IA ne résolvent pas les problèmes du système et proposent simplement une accélération du ML.

« Parmi tous nos pairs, Hailo a fait un très bon travail. Et ce n'est pas nous qui sommes meilleurs qu'eux. Mais de notre point de vue, notre proposition de valeur est assez différente », a-t-il déclaré.

Le fondateur a ajouté que SiMa.ai offre des performances supérieures et une meilleure efficacité énergétique que Hailo. Il a également déclaré que le logiciel système de SiMa.ai est assez différent et efficace pour GenAI.

« Tant que nous résolvons les problèmes des clients, et nous y parvenons mieux que quiconque, nous sommes dans une bonne position », a-t-il déclaré.

Le nouveau financement entièrement en actions de SiMa.ai, dirigé par Maverick Capital et avec la participation de Point72 et Jericho, prolonge le tour de table de série B de 30 millions de dollars de la startup, initialement annoncé en mai 2022. Les investisseurs existants, dont Amplify Partners, Dell Technologies Capital, Fidelity Management et Lip -Bu Tan a également participé à l'investissement supplémentaire. Avec cette levée de fonds, la startup âgée de cinq ans a récolté au total 270 millions de dollars.

L'entreprise compte actuellement 160 employés, dont 65 dans son centre de R&D à Bangalore, en Inde. SiMa.ai prévoit d'augmenter cet effectif en ajoutant de nouveaux rôles et en étendant sa capacité de R&D. Elle souhaite également développer une équipe de commercialisation pour les clients indiens. En outre, la startup prévoit de développer ses équipes en contact avec les clients à l'échelle mondiale, en commençant par la Corée et le Japon, puis en Europe et aux États-Unis.

« L’intensité informatique de l’IA générative a précipité un changement de paradigme dans l’architecture des centres de données. La prochaine phase de cette évolution sera l’adoption généralisée de l’IA en périphérie. Tout comme le centre de données a été révolutionné, le paysage de l’informatique de pointe est sur le point de connaître une transformation complète. SiMa.ai possède le trio essentiel d'une équipe de premier ordre, d'une technologie de pointe et d'un élan vers l'avant, le positionnant comme un acteur clé pour les clients traversant ce changement tectonique. Nous sommes ravis d'unir nos forces à celles de SiMa.ai pour saisir cette opportunité unique dans une génération », a déclaré Andrew Homan, directeur général principal de Maverick Capital, dans un communiqué.

rewrite this content and keep HTML tags

SiMa.ai, une startup basée dans la Silicon Valley produisant des plates-formes de systèmes sur puce (SoC) ML embarquées, a annoncé aujourd'hui avoir levé un cycle de financement d'extension de 70 millions de dollars alors qu'elle prévoit d'apporter son chipset de deuxième génération, spécialement conçu pour le multimodal. traitement génératif de l'IA, sur le marché.

Selon Gartner, le marché mondial des puces prenant en charge l’IA devrait plus que doubler d’ici 2027 pour atteindre 119,4 milliards de dollars par rapport à 2023. Cependant, seuls quelques acteurs ont commencé à produire des semi-conducteurs dédiés aux applications d’IA. La plupart des principaux concurrents se sont initialement concentrés sur la prise en charge de l’IA dans le cloud. Néanmoins, divers rapports prédisent une croissance significative du marché de l’IA en périphérie, ce qui signifie que le traitement matériel des calculs d’IA est plus proche de la source de collecte de données que dans un cloud centralisé. SiMa.ai, du nom de Seema, le mot hindi signifiant « frontière », s'efforce de tirer parti de ce changement en proposant son SoC d'IA de pointe aux organisations des secteurs de la fabrication industrielle, de la vente au détail, de l'aérospatiale, de la défense, de l'agriculture et de la santé.

La startup basée à San Jose, qui cible le segment de marché entre 5 W et 25 W de consommation d'énergie, a lancé son premier SoC ML pour intégrer l'IA et le ML via une combinaison logicielle-matérielle intégrée. Cela inclut son chipset propriétaire et son logiciel sans code appelé Palette. La combinaison a déjà été utilisée par plus de 50 entreprises dans le monde, a déclaré à Testeur Joe Krishna Rangasayee, fondateur et PDG de SiMa.ai.

La startup vante que sa génération actuelle de ML SoC a fourni les résultats FPS/W les plus élevés sur le benchmark MLPerf dans les catégories de divisions fermées, Edge et Power MLPerf Inference 4.0. Cependant, le chipset de première génération était axé sur la vision par ordinateur classique.

Alors que la demande pour GenAI augmente, SiMa.ai devrait introduire son SoC ML de deuxième génération au premier trimestre 2025, en mettant l'accent sur la fourniture à ses clients d'une capacité GenAI multimodale. Le nouveau SoC constituera un « changement évolutif » par rapport à son prédécesseur avec « quelques ajustements architecturaux » par rapport au chipset ML existant, a déclaré Rangasayee. Il a ajouté que les concepts fondamentaux resteraient les mêmes.

Le nouveau SoC GenAI s'adapterait à n'importe quel cadre, réseau, modèle et capteur – similaire à la plate-forme ML existante de l'entreprise – et serait également compatible avec n'importe quelle modalité, y compris l'audio, la parole, le texte et l'image. Cela fonctionnerait comme une plate-forme unique pour toute l’IA à travers la vision par ordinateur, les transformateurs et la GenAI multimodale, a déclaré la startup.

« Vous ne pouvez pas prédire l'avenir, mais vous pouvez choisir le vecteur et dire : c'est le vecteur sur lequel je veux parier. Et je souhaite continuer à évoluer autour de mon vecteur. C'est un peu l'approche que nous avons adoptée sur le plan architectural », a déclaré Rangasayee. «Mais fondamentalement, nous n'avons pas vraiment renoncé ni dû changer radicalement notre architecture. C’est également l’avantage d’adopter une architecture centrée sur le logiciel qui permet plus de flexibilité et d’agilité.

SiMa.ai a le taïwanais TSMC comme partenaire de fabrication pour ses chipsets IA de première et de deuxième génération et Arm Holdings comme fournisseur de son sous-système de calcul. Le chipset de deuxième génération sera basé sur la technologie de processus 6 nm de TSMC et comprendra des processeurs de vision intégrés Synopsys EV74 pour le pré- et post-traitement dans les applications de vision par ordinateur.

La startup considère parmi ses concurrents des opérateurs historiques tels que NXP, Texas Instruments, STMicro, Renaissance and Microchip Technology et Nvidia, ainsi que des startups de puces IA comme Hailo. Cependant, il considère Nvidia comme le principal concurrent, tout comme les autres startups de puces IA.

Rangasayee a déclaré à Testeur Joe que même si Nvidia est « fantastique dans le cloud », il n'a pas construit de plate-forme pour la périphérie. Il estime que Nvidia ne dispose pas d’une efficacité énergétique et de logiciels adéquats pour l’IA de pointe. De même, il a affirmé que d’autres startups construisant des chipsets d’IA ne résolvent pas les problèmes du système et proposent simplement une accélération du ML.

« Parmi tous nos pairs, Hailo a fait un très bon travail. Et ce n'est pas nous qui sommes meilleurs qu'eux. Mais de notre point de vue, notre proposition de valeur est assez différente », a-t-il déclaré.

Le fondateur a ajouté que SiMa.ai offre des performances supérieures et une meilleure efficacité énergétique que Hailo. Il a également déclaré que le logiciel système de SiMa.ai est assez différent et efficace pour GenAI.

« Tant que nous résolvons les problèmes des clients, et nous y parvenons mieux que quiconque, nous sommes dans une bonne position », a-t-il déclaré.

Le nouveau financement entièrement en actions de SiMa.ai, dirigé par Maverick Capital et avec la participation de Point72 et Jericho, prolonge le tour de table de série B de 30 millions de dollars de la startup, initialement annoncé en mai 2022. Les investisseurs existants, dont Amplify Partners, Dell Technologies Capital, Fidelity Management et Lip -Bu Tan a également participé à l'investissement supplémentaire. Avec cette levée de fonds, la startup âgée de cinq ans a récolté au total 270 millions de dollars.

L'entreprise compte actuellement 160 employés, dont 65 dans son centre de R&D à Bangalore, en Inde. SiMa.ai prévoit d'augmenter cet effectif en ajoutant de nouveaux rôles et en étendant sa capacité de R&D. Elle souhaite également développer une équipe de commercialisation pour les clients indiens. En outre, la startup prévoit de développer ses équipes en contact avec les clients à l'échelle mondiale, en commençant par la Corée et le Japon, puis en Europe et aux États-Unis.

« L’intensité informatique de l’IA générative a précipité un changement de paradigme dans l’architecture des centres de données. La prochaine phase de cette évolution sera l’adoption généralisée de l’IA en périphérie. Tout comme le centre de données a été révolutionné, le paysage de l’informatique de pointe est sur le point de connaître une transformation complète. SiMa.ai possède le trio essentiel d'une équipe de premier ordre, d'une technologie de pointe et d'un élan vers l'avant, le positionnant comme un acteur clé pour les clients traversant ce changement tectonique. Nous sommes ravis d'unir nos forces à celles de SiMa.ai pour saisir cette opportunité unique dans une génération », a déclaré Andrew Homan, directeur général principal de Maverick Capital, dans un communiqué.

Laisser un commentaire