Marketplace des cas d'usages de l'IA
Deepgram & Groq : Test du “Fastest LLM Inference” et du “Fastest Text to Speech Inference”
Objectif :
Technologies Utilisées
Groq, une start-up fondée par Jonathan Ross, créateur du TPU de Google, développe des puces spécialisées appelées Tensor Streaming Processor (TSP), conçues pour accélérer les tâches d’inférence en IA. Leur processeur de traitement du langage (LPU) promet une exécution des modèles de langage jusqu’à dix fois plus rapide et 100 fois plus rentable que les GPU actuels de Nvidia.
Deepgram : est une entreprise technologique spécialisée dans la reconnaissance automatique de la parole (ASR). Elle propose des services de transcription audio en texte qui s’appuient sur des modèles d’apprentissage profond et d’intelligence artificielle. Leur plateforme vise à offrir des transcriptions précises et rapides pour diverses applications.
Créez votre compte sur AI Crafters et explorez gratuitement les détails de ce cas d'usage ainsi que des centaines d'autres exemples pratiques.