Nieuws

Chinese CLIP: Contrastive Vision-Language Pretraining in Chinese

Alibaba Cloud heeft een Chinese versie van CLIP ontwikkeld, een multimodale representatie-lerende model die specifiek is afgestemd op Chinese taal en cultuur. Het model is ontworpen om prestaties te verbeteren bij cross-modale opdrachten, zoals het zoeken naar beelden op basis van Chinese tekst. De Chinese CLIP is getest op verschillende datasets en heeft betere resultaten geleverd dan het originele CLIP met machine-vertaling. Het onderzoek benadrukt de noodzaak van taal-specifieke modellen voor betere prestaties op native datasets.

Bron: Alibaba Cloud / Qwen

Originele taal: [en]

Lees hier het originele artikel