All Projects → goodatlas → Zeroth

goodatlas / Zeroth

Licence: apache-2.0
Kaldi-based Korean ASR (한국어 음성인식) open-source project

Programming Languages

shell
77523 projects

Projects that are alternatives of or similar to Zeroth

Pykaldi
A Python wrapper for Kaldi
Stars: ✭ 756 (+204.84%)
Mutual labels:  speech-recognition, language-model, asr, kaldi
Zamia Speech
Open tools and data for cloudless automatic speech recognition
Stars: ✭ 374 (+50.81%)
Mutual labels:  speech-recognition, language-model, asr, kaldi
Pytorch Asr
ASR with PyTorch
Stars: ✭ 124 (-50%)
Mutual labels:  speech-recognition, asr, kaldi
Vosk Android Demo
Offline speech recognition for Android with Vosk library.
Stars: ✭ 271 (+9.27%)
Mutual labels:  speech-recognition, asr, kaldi
Py Kaldi Asr
Some simple wrappers around kaldi-asr intended to make using kaldi's (online) decoders as convenient as possible.
Stars: ✭ 156 (-37.1%)
Mutual labels:  speech-recognition, asr, kaldi
kaldi-long-audio-alignment
Long audio alignment using Kaldi
Stars: ✭ 21 (-91.53%)
Mutual labels:  speech-recognition, kaldi, asr
vosk-model-ru-adaptation
No description or website provided.
Stars: ✭ 19 (-92.34%)
Mutual labels:  speech-recognition, kaldi, asr
Pytorch Kaldi
pytorch-kaldi is a project for developing state-of-the-art DNN/RNN hybrid speech recognition systems. The DNN part is managed by pytorch, while feature extraction, label computation, and decoding are performed with the kaldi toolkit.
Stars: ✭ 2,097 (+745.56%)
Mutual labels:  speech-recognition, asr, kaldi
Vosk Server
WebSocket, gRPC and WebRTC speech recognition server based on Vosk and Kaldi libraries
Stars: ✭ 277 (+11.69%)
Mutual labels:  speech-recognition, asr, kaldi
Neural sp
End-to-end ASR/LM implementation with PyTorch
Stars: ✭ 408 (+64.52%)
Mutual labels:  speech-recognition, language-model, asr
Eesen
The official repository of the Eesen project
Stars: ✭ 738 (+197.58%)
Mutual labels:  speech-recognition, asr, kaldi
rustfst
Rust re-implementation of OpenFST - library for constructing, combining, optimizing, and searching weighted finite-state transducers (FSTs). A Python binding is also available.
Stars: ✭ 104 (-58.06%)
Mutual labels:  speech-recognition, kaldi, asr
PCPM
Presenting Collection of Pretrained Models. Links to pretrained models in NLP and voice.
Stars: ✭ 21 (-91.53%)
Mutual labels:  speech-recognition, language-model, asr
Speech To Text Russian
Проект для распознавания речи на русском языке на основе pykaldi.
Stars: ✭ 151 (-39.11%)
Mutual labels:  speech-recognition, asr, kaldi
asr24
24-hour Automatic Speech Recognition
Stars: ✭ 27 (-89.11%)
Mutual labels:  kaldi, language-model, asr
Vosk Api
Offline speech recognition API for Android, iOS, Raspberry Pi and servers with Python, Java, C# and Node
Stars: ✭ 1,357 (+447.18%)
Mutual labels:  speech-recognition, asr, kaldi
Espresso
Espresso: A Fast End-to-End Neural Speech Recognition Toolkit
Stars: ✭ 808 (+225.81%)
Mutual labels:  speech-recognition, asr, kaldi
Lingvo
Lingvo
Stars: ✭ 2,361 (+852.02%)
Mutual labels:  speech-recognition, language-model, asr
Asr audio data links
A list of publically available audio data that anyone can download for ASR or other speech activities
Stars: ✭ 128 (-48.39%)
Mutual labels:  speech-recognition, asr
Kaldi
kaldi-asr/kaldi is the official location of the Kaldi project.
Stars: ✭ 11,151 (+4396.37%)
Mutual labels:  speech-recognition, kaldi

Project: Zeroth

Zeroth is an open source project for Korean speech recognition implemented using the Kaldi toolkit.

This project was developed as part of Atlas Labs’s (https://www.atlaslabs.ai) Language AI platform, which enables enterprises to add intelligence to their B2C communications.

By introducing an official Korean Kaldi recipe, the Zeroth project aims to make Korean speech recognition more broadly accessible to everyone.

As the name Zeroth, or the 0th, suggests, this project’s aim to be the starting point and a foundational piece upon which anyone can build new products and services using speech recognition.

We hope you find this project useful and welcome any opportunities to discuss or work together.

Contact: Lucas Jo ([email protected])

Special thanks

Mentioned links

0. Overview

1. Audio Data

We offer a voice recording app [MoreCoin (Android)] (https://play.google.com/store/apps/details?id=com.goodatlas.morecoin) that you can use to participate in building our open source database of Korean training data.

2. Requirements

Acoustic Model

The latest Kaldi recipe is applied to the Zeroth's acoustic model:

  • TDNN (with Factorization) / TDNN + LSTM / TDNN + OPGRU
  • Chain model
  • Data augmentation of reverberant speech

Language Model & Lexicon

Zeroth's language model and phonetic dictionary use an end-to-end data driven approach. Any contributions to our open source audio database will automatically be incorporated into the latest language model and phonetic dictionary.

To create a custom language model and phonetic dictionary: [s5 / data / local / lm / README.md] (https://github.com/goodatlas/zeroth/blob/master/s5/data/local/lm/README.md).

  • Corpus (Corpus)

    • Training sentences: 109,037,699
    • Test sentences: 12,115,208
    • Total: 121,152,907
  • Phonetic Dictionary

    • Unique words: 30,064,143
    • Unique words with the highest 98% frequency: 8,069,252
    • Unique morphemes: 465,253
    • Size of phonetic dictionary considering pronunciation diversity: 686,839
  • Language Model

    • Perplexity test 3-gram: ppl= 221.2969 (12,115,208 sentences, 194,940,635 words, 0 OOVs)
    • Perplexity test 4-gram: ppl= 187.2058 (12,115,208 sentences, 194,940,635 words, 0 OOVs)

Project: Zeroth

Zeroth 프로젝트는 Kaldi open source tool-kit 을 사용해서 한국어 음성인식기를 구현하는 프로젝트 입니다. 이 프로젝트는 기업이 AI를 고객 서비스에 추가하는 데 도움이되는 (주)아틀라스가이드의 Language AI 플랫폼 개발의 일부로서 개발되었습니다. Kaldi official recipe 에 한국어 버전을 소개하는 것을 시작으로, 많은 사람들의 참여를 통해 누구나 사용할 수 있는 음성인식기를 만들어 나갈 수 있도록 하는 것을 목표로하는 프로젝트입니다. 제로스라는 이름은 0-th, 즉 0 번째를 의미합니다. 이름이 의미하는 것처럼 이 프로젝트를 통해 음성인식기를 만들기 위해 필요한 모든 과정을 처음부터 끝까지 함께 해보고 토론할 수 있기를 바랍니다.

Contact: Lucas Jo ([email protected])

Special thanks

  • Gridspace Inc. 사에서 일하고 계신 Wonkyum Lee 님과의 co-work 를 통해 이 프로젝트를 진행하고 있음을 밝힙니다.

Mentioned links

0. Overview

1. Audio Data

  • 2018.07.16: 95.7 시간 (46,347발화, 181명, 27,330문장)
  • 2018.04.09: 76.6 시간 (35,139발화, 137명, 16,472문장)
  • 2018.02.03: 51.6 시간 한국어 학습데이터 (22,263 발화, 105명, 3000 문장)
  • License: CC BY 4.0
  • 현재 OpenSLR에서 51.6 시간 오디와 LM 데이터를 받아보실 수 있습니다.
  • 모어코인을 통한 기부로 오픈소스 오디오가 커지고 있습니다. 4월에는 1시간 기부시 70시간 데이터를 받아보실 수 있습니다. 모어코인앱을 통해 음성을 기부해 주세요.

현재 제로스 프로젝트에는 상기와 같은 음성데이터가 포함되어 있습니다. 공개 음성 DB 구축에 참여할 수 있는 음성 녹음 앱 모아코인(Android)을 과 모아코인(iOS)제공하고 있으며, 해당 앱을 통해 음성 데이터를 1시간 기부해주시면 해당 시점까지 구축된 공개 음성 DB에 접근하여 다운로드할 수 있는 권한을 AWS temporary credential 형태로 발급해 드립니다. 한번 발급된 credential은 12 시간 동안 유효합니다. 더 자세한 내용은 AWS-temporary-credential 페이지를 확인하시기 바랍니다

2. Requirements

  • 제로스 프로젝트를 실행하는데 필요한 패키지들에 대한 설명은 Requirements 위키 페이지를 참조하시기 바랍니다.
  • 언어모델과 발음사전을 구현하는 코드를 직접 실행하기 위해서는 Requirements-2 위키 페이지를 참조하여 추가적인 패키지를 설치하시기 바랍니다.

3. Acoustic Model

현재 제로스 프로젝트 음향모델에는 아래와 같은 최신 kaldi recipe 가 적용되어 있습니다.

  • TDNN (with Factorization) / TDNN + LSTM / TDNN + OPGRU
  • Chain model
  • Data augmentation of reverberant speech

4. Language Model & Lexicon

제로스 프로젝트에 사용되는 언어모델과 발음사전은 처음부터 끝까지 data-driven 방식으로 만들어집니다. 아래는 AWS-temporary-credential 을 발급받은 경우 오디오 데이터와 함께 자동으로 받아지는 언어모델과 발음사전의 세부사항입니다. 개인적으로 직접 특화된 언어모델과 발음사전을 만들고자 하는 경우에는 세부적인 방법이
s5/data/local/lm/README.md 에 기술되어 있으니 참조하시기 바랍니다.

  • 말뭉치(Corpus)

    • 훈련된 문장의 수: 109,037,699
    • 테스트 문장의 수:  12,115,208
    • 전 체: 121,152,907
  • 발음사전(Lexicon)

    • 고유한 단어의 수: 30,064,143
    • 상위 98% 빈도 수를 보이는 고유한 단어의 수: 8,069,252
    • Data-drive 방식으로 찾은 고유한 형태소의 수: 465,253
    • 발음 다양성을 고려한 발음사전의 크기: 686,839
  • 언어모델(Language Model)

    • Perplexity test 3-gram: ppl= 221.2969 (12,115,208 sentences, 194,940,635 words, 0 OOVs)
    • Perplexity test 4-gram: ppl= 187.2058 (12,115,208 sentences, 194,940,635 words, 0 OOVs)
Note that the project description data, including the texts, logos, images, and/or trademarks, for each open source project belongs to its rightful owner. If you wish to add or remove any projects, please contact us at [email protected].