Qui peut précisément calculer la marge brute de ces entreprises de modèles d'IA de grande taille et leurs forfaits de codage ? La marge brute d'Anthropic est d'environ 40 %


Les modèles open source de Zhizhi et Minimax en Chine, avec leur propre puissance de calcul, peuvent également être déployés par ceux qui en disposent. Donc, il est difficile de prévoir que les forfaits de codage seront vendus à un prix élevé, la marge brute pourrait être très faible, voire en perte. De plus, le modèle commercial de vente d'API diffère de celui du SaaS et des autres applications internet, chaque token ayant un coût, il n'y a pas de coût marginal proche de zéro.
Zhizhi a également rencontré des problèmes de capacité de calcul insuffisante, ayant vendu trop de tokens bon marché auparavant, les forfaits de puissance de calcul qu'ils proposent maintenant ne peuvent plus continuer à être vendus, avec une limite quotidienne. Dans le même modèle commercial, Anthropic n'impose pas de limite, on ne sait pas si c'est une dépense excessive pour limiter ou si la capacité de calcul est vraiment insuffisante et que l'augmentation des prix ne peut pas y remédier.
Les mauvaises nouvelles en bourse sont que lorsque le prochain rapport financier sera publié, on saura s'ils sont en train de nager à découvert. La performance des modèles chinois est indiscutable, mais il est difficile de dire combien de profit les forfaits de codage génèrent réellement, si leur modèle commercial est durable ou non. Pour l'instant, c'est surtout un symbole de foi, un enjeu très important dans la narration de l'IA.
Il y a aussi une logique très intéressante que je viens de comprendre récemment :
1. Après la popularité des grands modèles, le premier secteur à en bénéficier est celui des puces, qui nécessitent de la puissance de calcul pour l'entraînement. Nvidia a connu une explosion, et toutes les entreprises de grands modèles ont besoin de cela. La concurrence pour le prix favorise ceux qui offrent le plus de prime, avec des marges importantes.
2. Ensuite, la mémoire, car l'entraînement et l'inférence des grands modèles d'IA exigent énormément de mémoire. Avec l'augmentation des applications de grands modèles, la demande d'inférence ne cesse de croître. C'est une course pour la mémoire afin de faire de l'inférence, où le prix le plus élevé l'emporte également, avec une marge supplémentaire.
3. La transmission de données par fibre optique, avec la croissance explosive de la puissance de calcul IA, la mise à niveau traditionnelle passant du cuivre à la fibre est devenue un élément clé de l'infrastructure de base pour la puissance de calcul IA.
Quelle sera la prochaine étape ? Les entreprises capables de fournir l'infrastructure et les services de puissance de calcul devraient en bénéficier. La demande d'inférence explose, une capacité insuffisante pousse à augmenter les prix pour acheter plus de puissance, ce qui permet de capter davantage de marges. Amazon et Alibaba Cloud pourraient avoir l'opportunité de profiter de cette partie de la marge.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler