53
219
23
36
81
133
132
37
102
29
153
84
Auch Alibaba hat sein neues Modell veröffentlicht: Alibaba Qwen 2.5: Mit Qwen 2.5-Max einen neuen Mixture-of-Experts (MoE) KI-Sprachmodell vorgestellt, das sich als direkter.
DeepSeek-V3: Das leistungsstärkste Open-Source-Modell seiner Klasse Architektur: Mixture-of-Experts (MoE) mit innovativer, verlustfreier Lastverteilung für gleichmäßige Berechnung. Parameteranzahl: 671 Milliarden insgesamt, 37 Milliarden aktiv.