Together AI améliore sa plateforme de réglage fin avec support de la vision et du raisonnement
Joerg Hiller 18 mars 2026 18h27
Together AI ajoute l'appel d'outils, les traces de raisonnement et le réglage fin vision-langage à sa plateforme, avec des gains de débit de 6x pour les modèles de plus de 100 milliards de paramètres.
Together AI a déployé une expansion majeure de son service de réglage fin le 18 mars, ajoutant un support natif pour l'appel d'outils, les traces de raisonnement et les modèles vision-langage—des capacités qui répondent aux points de douleur persistants pour les équipes construisant des systèmes d'IA de production.
La mise à niveau arrive alors que l'entreprise négocie apparemment un tour de financement qui la valoriserait à 7,5 milliards de dollars, plus du double de sa valorisation de 3,3 milliards de dollars lors de sa série B de février 2025.
Ce qui est réellement nouveau
La plateforme gère désormais trois catégories de réglage fin qui nécessitaient auparavant des solutions de contournement fragmentées :
L'appel d'outils bénéficie d'un support de bout en bout utilisant des schémas compatibles OpenAI. Le système valide que chaque appel d'outil dans les données d'entraînement correspond aux fonctions déclarées avant le début de l'entraînement—une protection contre les paramètres hallucinés et les incompatibilités de schéma qui affligent les flux de travail agentiques.
Le réglage fin du raisonnement permet aux équipes d'entraîner des modèles sur des traces de pensée spécifiques au domaine en utilisant un champ reasoning_content dédié. Cela compte car les formats de raisonnement varient énormément selon les familles de modèles, rendant l'entraînement cohérent difficile sans standardisation.
Le réglage fin vision-langage prend en charge des ensembles de données hybrides mélangeant des exemples image-texte et texte uniquement. Par défaut, l'encodeur de vision reste figé tandis que les couches linguistiques se mettent à jour, bien que les équipes puissent activer l'entraînement conjoint lorsque la reconnaissance de motifs visuels nécessite une amélioration.
Mises à niveau de l'infrastructure
Au-delà des nouvelles capacités, Together AI revendique des gains de performance significatifs grâce à l'optimisation de sa pile d'entraînement pour les architectures mixture-of-experts. L'entreprise a intégré des noyaux SonicMoE qui chevauchent les opérations mémoire avec le calcul, plus des noyaux CUDA personnalisés pour le calcul de perte.
Les résultats varient selon la taille du modèle : les modèles plus petits voient des améliorations de débit d'environ 2x, tandis que les architectures plus grandes comme Kimi-K2 atteignent des gains de 6x. La plateforme gère désormais des ensembles de données jusqu'à 100 Go et des modèles dépassant 100 milliards de paramètres.
Les nouveaux modèles disponibles pour le réglage fin incluent les variantes Qwen 3.5 (jusqu'à 397 milliards de paramètres), Kimi K2 et K2.5, et GLM-4.6 et 4.7.
Ajouts pratiques
La mise à niveau comprend l'estimation des coûts avant l'exécution des tâches et le suivi en direct de la progression avec des estimations d'achèvement dynamiques—des fonctionnalités qui semblent basiques mais préviennent les surprises budgétaires qui rendent l'expérimentation risquée.
XY.AI Labs, cité par Together AI comme exemple de client, a rapporté être passé de cycles d'itération hebdomadaires à quotidiens tout en réduisant les coûts de 2-3x et en améliorant la précision de 77 % à 87 % en utilisant les API de réglage fin et de déploiement de la plateforme.
Contexte du marché
Le timing s'aligne avec une augmentation des dépenses en infrastructure d'IA. Le financement des startups dans le secteur de l'IA a atteint 220 milliards de dollars au cours des deux premiers mois de 2026, selon des rapports récents, une grande partie de ce capital affluant vers l'infrastructure d'entraînement et d'inférence.
Together AI se positionne comme une alternative à la construction d'une infrastructure d'IA en interne, offrant l'accès à plus de 200 modèles open-source via sa plateforme. L'argument de l'entreprise—éliminer la complexité de l'infrastructure pour que les équipes puissent se concentrer sur le développement de produits—s'étend maintenant à des flux de travail post-entraînement de plus en plus sophistiqués qui étaient auparavant le domaine de laboratoires de recherche bien dotés en ressources.
Source de l'image : Shutterstock- together ai
- infrastructure d'IA
- réglage fin
- apprentissage automatique
- IA d'entreprise




