NVIDIA a lancé quatre plates-formes d'inférence optimisées pour un ensemble varié d'applications d'IA générative qui émergent rapidement, aidant les développeurs à créer rapidement des applications ...
L’inférence IA impose une mise à disposition applicative capable d’arbitrer latence, justesse, sécurité et cohérence à grande échelle.
Avec un gain de vitesse trois fois supérieur et une dégradation limitée de la qualité des résultats en sortie, la technique de prédiction multi ...
Quand il est question d’IA générative et de grands modèles de langage, difficile de ne pas évoquer Nvidia. Le concepteur fabless d’accélérateurs de calcul est devenu la coqueluche des marchés ...
Lors du lancement des produits et solutions Huawei pendant le MWC Barcelona 2026, Yuan Yuan, président de la ligne de ...
Evoquer l'intelligence artificielle revient souvent à porter l'attention sur l'entraînement d'énormes modèles de deep learning, mobilisant des milliers de GPU pendant plusieurs semaines. Pourtant, la ...
Swami Sivasubramanian, VP AI et Ddta d'AWS, annonce l'arrivée de nouvelles fonctionnalités pour entraîner et inférer plus facilement les modèles d'IA générative tout en réduisant (encore) les coûts.
NVIDIA dévoile NVIDIADynamo, un logiciel d'inférence open-source pour accélérer et mettre à l'échelle les modèles de raisonnement de l'IA dans les usines d'IA au coût le plus bas et avec la plus ...
À l’occasion du Red Hat Summit 2025, l’éditeur open source met en avant son Red Hat AI Inference Server, de nouveaux modèles validés par des tiers, et l’intégration des API Llama Stack (Meta) et MCP ...
Le fournisseur de cloud français menait aujourd’hui sa conférence annuelle, OVHcloud Summit 2025. L’occasion pour présenter sa stratégie en matière d’IA. Selon Octave Klaba, cofondateur et PDG du ...
Recogni développe des puces d'inférence pour l'IA générative et les véhicules autonomes, et cible notamment les secteurs automobile et aérospatial. Elle vante une densité de calcul élevée et une ...