¿Alguien puede calcular cuál es el margen de beneficio bruto de los paquetes de codificación de estas grandes empresas de modelos de IA? El beneficio bruto de Anthropic es aproximadamente del 40%


Los modelos de código abierto de Zhizhi y Minimax en el mercado nacional, con capacidad de computación propia, también pueden desplegarse. Por lo tanto, no se puede determinar que los paquetes de codificación se vendan demasiado caros, el margen de beneficio puede ser muy bajo, e incluso tener pérdidas. Además, el modelo de negocio de vender API es diferente del SaaS y otras aplicaciones en Internet, cada token tiene un costo, no hay un costo marginal cercano a 0.
Zhizhi también enfrenta insuficiencia de capacidad de computación, vendieron demasiados tokens baratos anteriormente, y ahora los paquetes de capacidad de computación no pueden seguir vendiéndose, con límites diarios. En el mismo modelo de negocio, Anthropic no tiene límites, no se sabe si está gastando mucho dinero para limitar o si realmente no hay suficiente capacidad de computación y aumentar el dinero no puede resolverlo.
La desventaja de cotizar en bolsa es que cuando se publiquen los próximos informes financieros, sabremos si están en una situación de riesgo. Los modelos chinos tienen una relación calidad-precio inigualable, pero actualmente no se puede decir cuánto beneficio hay en los paquetes de codificación, si el modelo de negocio es sostenible o no, todavía es difícil de decir. Ahora, más que nada, es un ícono de fe, un objetivo muy importante en la narrativa de IA.
Otra lógica muy interesante que recién entendí,
1. Después de que los grandes modelos se vuelven populares, los primeros en beneficiarse son los chips, que necesitan capacidad de computación para entrenar. Nvidia se disparó, todas las empresas de grandes modelos tienen demanda, compiten entre sí, el que ofrece el precio más alto obtiene la mayor prima, y los beneficios son abundantes.
2. Luego, la memoria, ya que el entrenamiento y la inferencia de grandes modelos de IA requieren una enorme cantidad de memoria. A medida que aumentan las aplicaciones de grandes modelos, la demanda de inferencia también crece, en este momento se compite por la memoria para hacer inferencias, también con una prima para el que ofrece el precio más alto.
3. Transmisión de datos por fibra óptica, el crecimiento explosivo del poder de cómputo de IA, la actualización de los soportes tradicionales, de cobre a fibra óptica, se ha convertido en el núcleo de la infraestructura de capacidad de cómputo de IA.
¿En qué campo podría estar la próxima tendencia? Las empresas que puedan ofrecer infraestructura y servicios de capacidad de cómputo probablemente serán una de ellas. La demanda de inferencia se dispara, la insuficiencia de capacidad de cómputo aumenta los precios, comprar capacidad de cómputo puede obtener más primas, Amazon y Alibaba Cloud podrían tener la oportunidad de beneficiarse de esta parte de la prima.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado