wir nutzen keine Cloud, sondern setzen nur unsere eigenen Spracherkennungssysteme oder Open-Source-Systeme ein, die auf billigen, klasseninternen Computern (Raspberry pi 4, NVIDIA Jetson) laufen können
zur Zeit benutzen wird den akustischen Model "DeepSpeech" der auf der Corpus Common Voice der deutschen Sprache traniert wurde *
wir benutzen unsere "hausgekochte" language models (palope.scorer, silben.scorer u.s.w.)
Stimme (möglicherweise auch Akzent) wählen, Schriftart, Kapitalisierungsart, Wiedergabegeschwindigkeit u.s.w.
verschiedene Übungen (lesen, hören, paaren)
viele neue Übungen (z.B. "echo", "chor-lesen", "mitschreiben", "mach mit!") und Motivationsmechanismen (e.g. Fibelschnitzeljagd) werden kommen
Hauptprinzip: Fokus auf essentiel, keine Aufmerksamkeitüberlastung durch unnötige Animationsquatsch u.s.w.
Audiotext ist von mir Entwickelter Format der Audio-segmenten mit Buchstaben-sequenzen koppelt.
zu diesem Zeitpunkt enthält die Datenbank von fibel.digital 12165 Audiotextaufnahmen von 17 Stimmen