Nieuws

Together AI breidt Fine-Tuning Platform uit met grotere modellen, langere contexten en betere Hugging Face-integraties

Together AI breidt zijn Fine-Tuning Platform uit met ondersteuning voor modellen met meer dan 100B parameters, langere contexten en verbeterde integraties met Hugging Face Hub. De updates omvatten ondersteuning voor modellen zoals Qwen3-235B, Llama 4 Maverick en DeepSeek-R1, en nieuwe opties voor DPO. De contextlengte is gemiddeld 2x-4x verhoogd, met sommige modellen tot 131k tokens. Gebruikers kunnen nu modellen van Hugging Face Hub direct fine-tunen en resultaten opslaan in hun eigen repositories.

Bron: Together AI

Originele taal: [en]

Lees hier het originele artikel