AI Personal Learning
und praktische Anleitung

FunASR: Open Source Spracherkennungs-Toolkit, Sprechertrennung / Mehr-Personen-Dialog-Spracherkennung

Allgemeine Einführung

FunASR ist ein Open-Source-Spracherkennungs-Toolkit, das vom Dharma Institute von Alibaba entwickelt wurde, um akademische Forschung und industrielle Anwendungen zu verbinden. Es unterstützt eine breite Palette von Spracherkennungsfunktionen, einschließlich Spracherkennung (ASR), Voice Endpoint Detection (VAD), Interpunktionswiederherstellung, Sprachmodellierung, Sprecherverifizierung, Sprechertrennung und Spracherkennung für Dialoge mit mehreren Personen.FunASR bietet praktische Skripte und Tutorials zur Unterstützung der Inferenz und Feinabstimmung von vortrainierten Modellen und hilft Benutzern, schnell effiziente Spracherkennungsdienste zu erstellen.

Unterstützt eine Vielzahl von Audio- und Videoformaten, kann Dutzende von Stunden langer Audio- und Videodateien in Text mit Interpunktion umwandeln, unterstützt Hunderte von Anfragen zur gleichzeitigen Transkription Unterstützt Chinesisch, Englisch, Japanisch, Kantonesisch und Koreanisch.


 

Online-Erfahrung: https://www.funasr.com/

FunASR: Open Source Spracherkennungs-Toolkit, Sprechertrennung / Mehr-Personen-Dialog-Spracherkennung-1

 

FunASR: Open Source Spracherkennungs-Toolkit, Sprechertrennung / Mehr-Personen-Dialog-Spracherkennung-1

Das FunASR-Softwarepaket für die Offline-Transkription von Dateien bietet einen leistungsstarken Offline-Dienst für die Transkription von Sprachdateien. Mit einer vollständigen Spracherkennungsverbindung, die Sprachendpunkt-Erkennung, Spracherkennung, Interpunktion und andere Modelle kombiniert, kann es Dutzende von Stunden langer Audio- und Videodateien als interpunktierten Text erkennen und unterstützt Hunderte von Anfragen zur gleichzeitigen Transkription. Die Ausgabe ist interpunktierter Text mit Zeitstempeln auf Wortebene und unterstützt ITN und benutzerdefinierte Hot Words. Server-seitige Integration mit ffmpeg, Unterstützung für eine Vielzahl von Audio- und Videoformaten. Das Paket bietet html, python, c++, java und c# und andere Programmiersprachen Client, kann der Benutzer direkt verwenden und weitere Entwicklung.

 

FunASR: Open Source Spracherkennungs-Toolkit, Sprechertrennung / Mehr-Personen-Dialog-Spracherkennung-1

Das FunASR-Echtzeit-Sprachdiktat-Softwarepaket integriert Echtzeitversionen von Modellen zur Erkennung von Sprachendpunkten, Spracherkennung, Stimmerkennung, Modellen zur Vorhersage von Zeichensetzung usw. Durch die Nutzung der Synergie mehrerer Modelle kann es nicht nur Sprache-zu-Text in Echtzeit durchführen, sondern auch die Ausgabe mit hochpräzisem Transkriptionstext am Ende des Satzes, den Ausgabetext mit Interpunktion korrigieren und Unterstützung für mehrere Anfragen bieten. Entsprechend den verschiedenen Benutzerszenarien unterstützt es drei Servicemodi: Echtzeit-Sprachdiktatdienst (online), Satztranskription in Nicht-Echtzeit (offline) und integrierte Zusammenarbeit in Echtzeit und Nicht-Echtzeit (2pass). Das Softwarepaket bietet eine Vielzahl von Programmiersprachen wie html, python, c++, java und c#-Client, die Benutzer direkt verwenden und weiterentwickeln können.

 

Funktionsliste

  • Spracherkennung (ASR): unterstützt Offline- und Echtzeit-Spracherkennung.
  • Voice Endpoint Detection (VAD): erkennt den Anfang und das Ende des Sprachsignals.
  • Interpunktionswiederherstellung: Fügen Sie automatisch Interpunktion hinzu, um die Lesbarkeit des Textes zu verbessern.
  • Sprachmodelle: Unterstützt die Integration von mehreren Sprachmodellen.
  • Sprecherverifizierung: Verifiziert die Identität des Sprechers.
  • Sprechertrennung: Unterscheidung der Sprache von verschiedenen Sprechern.
  • Spracherkennung für mehrere Gespräche: unterstützt die Spracherkennung für mehrere gleichzeitige Gespräche.
  • Modellinferenz und Feinabstimmung: bietet Inferenz- und Feinabstimmungsfunktionen für vorab trainierte Modelle.

 

Hilfe verwenden

Ablauf der Installation

  1. Vorbereitung der Umwelt::
    • Stellen Sie sicher, dass Python 3.7 oder höher installiert ist.
    • Installieren Sie die erforderlichen Abhängigkeits-Bibliotheken:
      pip install -r anforderungen.txt
      
  2. Modelle herunterladen::
    • Laden Sie bereits trainierte Modelle von ModelScope oder HuggingFace herunter:
      git klonen. https://github.com/modelscope/FunASR.git
      cd FunASR
      
  3. Konfiguration der Umgebung::
    • Konfigurieren Sie die Umgebungsvariablen:
      exportieren MODEL_DIR=/path/to/your/model
      

Verwendung Prozess

  1. Spracherkennung::
    • Verwenden Sie die Befehlszeile für die Spracherkennung:
      python recognise.py --model paraformer --input your_audio.wav
      
    • Spracherkennung mit Python-Code:
      von funasr importieren AutoModel
      model = AutoModel.from_pretrained("Paraformer")
      result = model.recognize("Ihr_Audio.wav")
      drucken(Ergebnis)
      
  2. Erkennung von Sprachendpunkten::
    • Verwenden Sie die Befehlszeile für die Erkennung von Sprachendpunkten:
      python vad.py --model fsmn-vad --input your_audio.wav
      
    • Erkennung von Sprachendpunkten mit Python-Code:
      von funasr importieren AutoModel
      vad_model = AutoModel.from_pretrained("fsmn-vad")
      vad_result = vad_model.detect("Ihr_Audio.wav")
      drucken(vad_result)
      
  3. Wiederherstellung der Zeichensetzung::
    • Verwenden Sie die Befehlszeile zur Wiederherstellung der Interpunktion:
      python punctuate.py --model ct-punc --input ihr_text.txt
      
    • Wiederherstellung der Interpunktion mit Python-Code:
      von funasr importieren AutoModel
      punc_model = AutoModel.from_pretrained("ct-punc")
      punc_result = punc_model.punctuate("ihr_text.txt")
      drucken(punc_result)
      
  4. Überprüfung des Sprechers::
    • Verwenden Sie die Befehlszeile für die Lautsprecherüberprüfung:
      python verify.py --model speaker-verification --input your_audio.wav
      
    • Sprecherverifizierung mit Python-Code:
      von funasr importieren AutoModel
      verify_model = AutoModel.from_pretrained("sprecher-überprüfung")
      verify_result = verify_model.verify("Ihr_Audio.wav")
      drucken(verify_result)
      
  5. Multi-Talk-Spracherkennung::
    • Spracherkennung für Multiplayer-Dialoge über die Kommandozeile:
      python multi_asr.py --model multi-talker-asr --input your_audio.wav
      
    • Spracherkennung für Unterhaltungen mit mehreren Personen mit Python-Code:
      von funasr importieren AutoModel
      multi_asr_model = AutoModel.from_pretrained("Multi-Talker-Asr")
      multi_asr_result = multi_asr_model.recognize("Ihr_Audio.wav")
      drucken(multi_asr_result)
      
AI Leichtes Lernen

Der Leitfaden für Laien zum Einstieg in die KI

Hilft Ihnen, die Nutzung von KI-Tools kostengünstig und von Null an zu erlernen.KI ist, wie Bürosoftware, eine wesentliche Fähigkeit für jeden. Die Beherrschung von KI verschafft Ihnen einen Vorteil bei der Stellensuche und die Hälfte des Aufwands bei Ihrer zukünftigen Arbeit und Ihrem Studium.

Details ansehen>
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " FunASR: Open Source Spracherkennungs-Toolkit, Sprechertrennung / Mehr-Personen-Dialog-Spracherkennung

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)