Ca fonctionne

conda activate whisper
python transcribe.py WhatsApp.ogg medium  

Code du transcribe.by

from faster_whisper import WhisperModel
import sys

if len(sys.argv) < 2:
    print("Usage: python transcribe.py audio.mp3 [modèle]")
    print("Modèles possibles: tiny, base, small, medium, large-v3")
    sys.exit(1)

audio_file = sys.argv[1]
model_size = sys.argv[2] if len(sys.argv) > 2 else "medium"  # medium par défaut

# Chargement du modèle (la première fois télécharge les poids automatiquement)
model = WhisperModel(model_size, device="cpu", compute_type="int8")  # int8 = ultra-rapide sur Mac

print(f"Transcription de {audio_file} avec le modèle {model_size}...")

segments, info = model.transcribe(audio_file, language="fr", beam_size=5)

print(f"\\nLangue détectée : {info.language} (probabilité : {info.language_probability:.2f})")
print("\\nTranscription :\\n")

for segment in segments:
    print(f"[{segment.start:.2f}s → {segment.end:.2f}s] {segment.text}")

Option 1 – Passer à faster-whisper (la plus simple et la plus rapide)

faster-whisper est une version optimisée de Whisper (même modèles, même précision), mais beaucoup plus rapide sur CPU et surtout sur Apple Silicon (elle utilise automatiquement Metal/CoreML).

Étapes (avec pipx, comme vous avez déjà fait pour openai-whisper) :

  1. Désinstallez l’ancien (optionnel mais propre) :

    pipx uninstall openai-whisper
    
    
  2. Installez faster-whisper :

    pipx install faster-whisper
    
    
  3. Utilisez-le à la place de whisper :

    faster-whisper-transcribe nom_du_fichier_audio.mp3 --model medium --language fr
    
    

    Ou en version plus avancée (script Python) :

    from faster_whisper import WhisperModel
    model = WhisperModel("medium", device="cpu", compute_type="float16")  # ou "int8" pour encore plus rapide
    segments, info = model.transcribe("nom_du_fichier_audio.mp3", language="fr")
    for segment in segments:
        print(segment.text)
    
    

    → Sur Mac Apple Silicon, ça sera 3 à 10× plus rapide que openai-whisper, et sans le warning FP16.

Option 2 – Rester sur openai-whisper mais activer l’accélération GPU (MPS)

Si vous préférez garder openai-whisper :

Dans votre environnement pipx (ou venv), réinstallez PyTorch avec le support Apple Silicon :

pipx uninstall openai-whisper
pipx install torch torchvision torchaudio  # PyTorch détecte automatiquement MPS sur Mac récent
pipx install openai-whisper

Puis lancez avec l’option device :

whisper nom_du_fichier.mp3 --model medium --language fr --device mps

Si ça marche, vous verrez beaucoup moins de temps de traitement et plus de warning FP16 (car MPS supporte FP16).

Option 3 – Pour la vitesse maximale : whisper.cpp (version C++)

Très rapide même sur CPU, et support Metal sur Mac. Repo : https://github.com/ggerganov/whisper.cpp

Suivez les instructions “Build” pour Mac (super simple avec make).