conda activate whisper
python transcribe.py WhatsApp.ogg medium
Code du transcribe.by
from faster_whisper import WhisperModel
import sys
if len(sys.argv) < 2:
print("Usage: python transcribe.py audio.mp3 [modèle]")
print("Modèles possibles: tiny, base, small, medium, large-v3")
sys.exit(1)
audio_file = sys.argv[1]
model_size = sys.argv[2] if len(sys.argv) > 2 else "medium" # medium par défaut
# Chargement du modèle (la première fois télécharge les poids automatiquement)
model = WhisperModel(model_size, device="cpu", compute_type="int8") # int8 = ultra-rapide sur Mac
print(f"Transcription de {audio_file} avec le modèle {model_size}...")
segments, info = model.transcribe(audio_file, language="fr", beam_size=5)
print(f"\\nLangue détectée : {info.language} (probabilité : {info.language_probability:.2f})")
print("\\nTranscription :\\n")
for segment in segments:
print(f"[{segment.start:.2f}s → {segment.end:.2f}s] {segment.text}")
faster-whisper est une version optimisée de Whisper (même modèles, même précision), mais beaucoup plus rapide sur CPU et surtout sur Apple Silicon (elle utilise automatiquement Metal/CoreML).
Étapes (avec pipx, comme vous avez déjà fait pour openai-whisper) :
Désinstallez l’ancien (optionnel mais propre) :
pipx uninstall openai-whisper
Installez faster-whisper :
pipx install faster-whisper
Utilisez-le à la place de whisper :
faster-whisper-transcribe nom_du_fichier_audio.mp3 --model medium --language fr
Ou en version plus avancée (script Python) :
from faster_whisper import WhisperModel
model = WhisperModel("medium", device="cpu", compute_type="float16") # ou "int8" pour encore plus rapide
segments, info = model.transcribe("nom_du_fichier_audio.mp3", language="fr")
for segment in segments:
print(segment.text)
→ Sur Mac Apple Silicon, ça sera 3 à 10× plus rapide que openai-whisper, et sans le warning FP16.
Si vous préférez garder openai-whisper :
Dans votre environnement pipx (ou venv), réinstallez PyTorch avec le support Apple Silicon :
pipx uninstall openai-whisper
pipx install torch torchvision torchaudio # PyTorch détecte automatiquement MPS sur Mac récent
pipx install openai-whisper
Puis lancez avec l’option device :
whisper nom_du_fichier.mp3 --model medium --language fr --device mps
Si ça marche, vous verrez beaucoup moins de temps de traitement et plus de warning FP16 (car MPS supporte FP16).
Très rapide même sur CPU, et support Metal sur Mac. Repo : https://github.com/ggerganov/whisper.cpp
Suivez les instructions “Build” pour Mac (super simple avec make).