Optimize and deploy models with Optimum-Intel and OpenVINO GenAI

2024-10-191 minute read
Article image

Optimum-Intel och OpenVINO GenAI erbjuder en kraftfull lösning för att distribuera Hugging Face-modeller på gränsen. Genom att följa dessa steg kan du uppnå optimerad, högpresterande AI-inferens i miljöer där Python inte är idealisk, och säkerställa att dina applikationer körs smidigt över Intels hårdvara. Stegen inkluderar att ställa in miljön, exportera modeller till OpenVINO IR, optimera modellen med viktkvantisering och sedan distribuera med OpenVINO GenAI-API:t för Python eller C++. Du kan anpassa generering med alternativ som strömning och chattscenarier, och dra nytta av förbättrad intern optimering som minskar prompt-processering med tidigare chatthistorik.