👂 🎴 🕸️
<
p
class
=
fragment
>
Aufmerksamkeit
der
Schülern
auf
das
wesentliche
fokussieren
p
><
p
class
=
fragment
>
Sequenzen
der
Graphemen
mit
den
phonetischen
Sequenzen
assoziiren
p
><
p
class
=
fragment
>
mit
dem
Finger
die
Zeile
entlang
fahren
p
><
p
class
=
fragment
>
mit
den
häufigsten
und
einfachsten
Wörtern
anfangen
p
><
p
class
=
fragment
>
allmähliche
Einführung
neuer
immer
komplexerer
Einheiten
p
><
p
class
=
fragment
>
Struktur
der
Sprache
(
e
.
g
.
trochäische
Struktur
der
deutschen
Wörter
)
zu
Nutze
machen
p
>
<
p
class
=
fragment
>
Web
-
Komponente
des
Projekts
Digital
Primer
(
c
.
f
.
<
a
href
=
https
://
doi
.
org
/
10
.
3917
/
enf2
.
193
.
0345
>
10
.
3917
/
enf2
.
193
.
0345
a
>''
<
a
href
=
https
://
doi
.
org
/
10
.
35745
/
eiet2021v01
.
01
.
0005
>
10
.
35745
/
eiet2021v01
.
01
.
0005
a
>)
p
><
p
class
=
fragment
>
basiert
auf
der
Datenbank
struktur
der
Kastalia
Knowledge
Management
System
p
><
p
class
=
fragment
>
wir
können
ziemlich
schnell
und
problemlos
von
5
Benutzern
auf
Tausende
von
Benutzern
aufstocken
p
><
p
class
=
fragment
>
jeder
Lehrer
kann
eigene
Curricula
bauen
''
was
ihr
bis
jetzt
gesehen
habt
ist
nur
ein
Ausschnitt
von
what
is
to
come
p
>
<
p
class
=
fragment
>
Stimme
(
möglicherweise
auch
Akzent
)
wählen
''
Schriftart
''
Kapitalisierungsart
''
Wiedergabegeschwindigkeit
u
.
s
.
w
.
p
><
p
class
=
fragment
>
verschiedene
Übungen
(
lesen
''
hören
''
paaren
)
p
><
p
class
=
fragment
>
viele
neue
Übungen
(
z
.
B
.
echo
''
chor
-
lesen
''
mitschreiben
''
mach
mit
!
)
und
Motivationsmechanismen
(
e
.
g
.
Fibelschnitzeljagd
)
werden
kommen
p
><
p
class
=
fragment
>
Hauptprinzip
:
Fokus
auf
essentiel
''
keine
Aufmerksamkeitüberlastung
durch
unnötige
Animationsquatsch
u
.
s
.
w
.
p
>
<
p
class
=
fragment
>
Audiotext
ist
von
mir
Entwickelter
Format
der
Audio
-
segmenten
mit
Buchstaben
-
sequenzen
koppelt
.
p
><
p
class
=
fragment
>
zu
diesem
Zeitpunkt
enthält
die
Datenbank
von
fibel
.
digital
12165
Audiotextaufnahmen
von
17
Stimmen
p
>
<
p
class
=
fragment
>
wir
nutzen
keine
Cloud
''
sondern
setzen
nur
unsere
eigenen
Spracherkennungssysteme
oder
Open
-
Source
-
Systeme
ein
''
die
auf
billigen
''
klasseninternen
Computern
(
Raspberry
pi
4
''
NVIDIA
Jetson
)
laufen
können
p
><
p
class
=
fragment
>
zur
Zeit
benutzen
wird
den
akustischen
Model
DeepSpeech
der
auf
der
Corpus
Common
Voice
der
deutschen
Sprache
traniert
wurde
*
p
><
p
class
=
fragment
>
wir
benutzen
unsere
hausgekochte
language
models
(
palope
.
scorer
''
silben
.
scorer
u
.
s
.
w
.)
p
><
p
class
=
fragment
><
a
href
=
https
://
github
.
com
/
hromi
/
lesen
-
mikroserver
target
=
blank
rel
=
noopener
>
https
://
github
.
com
/
hromi
/
lesen
-
mikroserver
a
>
p
>
[Impressum, Datenschutz, Login] Other subprojects of wizzion.com linkring: udk.ai fibel.digital baumhaus.digital refused.science naadam.info kyberia.de teacher.solar gardens.digital giver.eu puerto.life