Das 4. Paradigma bringt die Lösung ModelHub AIoT für große Modellinferenz am Edge heraus

GoldenOctober2024
DEEPSEEK-0,62%

Am 26. Februar veröffentlichte Jinshi-Daten, dass das vierte Paradigma eine Lösung für das Inference-Edge-Problem des großen Modells ModelHub AIoT eingeführt hat, mit der Benutzer kleine Dampfmodelle wie DeepSeek R1, Qwen 2.5 und Llama 2/3 usw. leicht an der Edge bereitstellen und offline ausführen können. Benutzer können flexibel zwischen mehreren Modellen wechseln, um die Komplexität von Modellkomprimierung, Inferenzleistung, Bereitstellung und Optimierung zu berücksichtigen. Das Unternehmen gab an, dass diese Lösung nicht nur die Anforderungen der Benutzer an Datenschutz und Echtzeitfähigkeit erfüllen kann, sondern auch die Kosten für die Inferenz großer KI-Modelle erheblich senkt.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare