In dieser Blogreihe „The real Trillion Euro Gap“ vergleiche ich – beginnend mit 1999 bis zu einer Vorschau bis 2045 – zwei Entwicklungen:
eine destruktive, von kurzfristigen Interessen geprägte Fehlentwicklung unserer Gesellschaft und
eine proaktiv gestaltete digitale Zukunft, die vordigitale Errungenschaften bewahrt und weiterentwickelt.
Jahrzehntelang habe ich versucht, ein ganzheitliches Konzept für eine solche Gesellschaft zu begleiten. Doch der Vergleich zeigt:
Es ist eine Lücke von Billionen Euro entstanden – als wirtschaftlicher Schaden und für Investitionen, die nötig wären, um die Fehlentwicklungen wieder auszugleichen.
Diese Lücke ist kein Zufall. Sie ist das Ergebnis verpasster Chancen, ignorierter Patente und einer Digitalisierung, die oft von autokratischen Geschäftsmodellen dominiert wird.
Doch es geht nicht nur um Zahlen. Es geht um die Frage:
Wie hätte eine inklusive, partizipative Gesellschaft aussehen können – und wie können wir sie noch gestalten?
Ein pädagogischer Meilenstein: Die Segmentiermethode (1985)
Schon 1985 legten Ingrid Daniels und ich in unserer Diplomarbeit den Grundstein für ein Prinzip, das heute in der KI als Tokenisierung bekannt ist.
Die Segmentiermethode war ein hybrides, teilnehmerorientiertes Verfahren, das Wörter in sinnvolle, wiedererkennbare Einheiten zerlegte – nicht in Buchstaben, sondern in bedeutungstragende Segmente.
Damals ging es um Alphabetisierung. Heute ist dieser Ansatz relevant für KI, Semantic Web und inklusive Bildung.
Bereits damals wurde von Token gesprochen. (Auszug aus dem von uns erstellten Lehrmaterial).
Grundprinzipien der Segmentiermethode
-
Segmentierung statt Buchstabenisolierung:
Wörter werden in wiederkehrende Einheiten wie „Haus-“, „-tür“ oder „-licht“ zerlegt.
Beispiel: „Hauslicht“ → „Haus-“ + „-licht“ (analog zu „Tageslicht“).
Ziel: Schnelle Mustererkennung, um Lesen und Schreiben durch Assoziation zu beschleunigen. -
Kontextuelle Einbettung:
Segmente werden in Alltagssituationen vermittelt (z. B. „Wo findest du -licht noch?“ → „Mondlicht“, „Kerzenlicht“).
Das fördert Transferfähigkeit und reduziert die kognitive Last. -
Teilnehmerorientierung:
Die Segmente stammen aus der Sprache der Lernenden selbst – ähnlich dem Spracherfahrungsansatz.
Lernende identifizieren Muster in selbst erstellten Texten. -
Visuelle Unterstützung:
Farbcodierung oder Symbole verankern die Segmente.
Beispiel: Alle Wörter mit „-ung“ werden blau markiert, um sie als „Dingwort-Baustein“ sichtbar zu machen. -
Schnelle Erfolgserlebnisse:
Durch häufige Segmente (z. B. „ge-“, „-en“) decodieren Lernende ganze Wortfamilien – ohne jeden Buchstaben analysieren zu müssen.
Vorteile – damals wie heute
- Effizienz: Schnellerer Lernerfolg durch Mustererkennung.
- Motivation: Lernende erschließen Wortfamilien und sehen Fortschritte.
Vergleich: Segmentiermethode (1985) vs. moderne Leselernmethoden (2026)
| Kriterium | Segmentiermethode (1985) | Heutige Methoden (2026) |
|---|---|---|
| Grundansatz | Hybrid: Segmente + Ganzheitlichkeit | Multimodal: Phonik, Ganzwort, Morphemik + digitale Tools |
| Einheiten | Bedeutungstragende Segmente (z. B. „-ung“) | Morphemik („Wortbausteine“) + Silbenmethode |
| Technologie | Manuelle Segmentierung, später Datenbanken | KI-gestützte Plattformen (z. B. „Antura“, „GraphoGame“) |
| Teilnehmerorientierung | Alltagssprache, selbst erstellte Texte | Personalisiertes Lernen durch Algorithmen (z. B. „Duolingo ABC“) |
| Visuelle Hilfen | Farbcodierung, Symbole | Gamification (z. B. „Endless Alphabet“), Augmented Reality |
| Zielgruppe | Erwachsene Analphabeten | Inklusive Ansätze für alle Altersgruppen |
| Wissenschaftliche Basis | Praxiserfahrung, linguistische Intuition | Neurowissenschaft, Langzeitstudien zu Leseflüssigkeit |
Aktuelle Trends, die die Segmentiermethode bestätigen
-
Morphemische Ansätze sind heute Standard (z. B. in deutschen Grundschulen).
Meine Idee von 1999 (Europapatent ES2374881T3):
1.000 Kernkategorien nutzen – ähnlich heutigen „High-Frequency-Word“-Listen. -
KI-gestützte Segmentierung:
Tools wie „GraphoGame“ passen Lernpfade adaptiv an – ein Prinzip, das wir früh forderten. -
Spracherfahrung + Technologie:
Apps wie „Speechify“ wandeln Sprache in Texte um und markieren Segmente automatisch. -
Sozialer Kontext:
Moderne Methoden betonen kollaboratives Lernen (z. B. „Alphabetisierungscafés“) –
genau wie unser Ansatz.
Kritik an heutigen Methoden
- Übertechnisierung: Manche Tools verlieren den menschlichen Dialog (à la Freire/Freinet).
- Kulturelle Blindstellen: Datengetriebene Segmentierung ignoriert oft lokale Kontexte.
- Kommerzialisierung: Viele Apps sind nicht frei zugänglich – unser Ansatz setzte auf offene Wissensvermittlung.
Fazit: Warum dieser Ansatz die Gesellschaft voranbringt
Die Segmentiermethode war visionär, weil sie:
- Hybridität vorwegnahm (heute Standard in der Pädagogik),
- Teilnehmerorientierung und Kontextualisierung betonte (heute neu entdeckt),
- zeigte, wie gesellschaftlich strukturrelevante Forschung Innovation treibt – ohne autokratische Geschäftsmodelle.
Dieses Beispiel steht für ein zentrales Anliegen der Reihe „The real Trillion Euro Gap“:
Digitalisierung ist kein Selbstzweck.
Sie muss inklusiv genau wie bisher analoge Forschungsarbeit, partizipativ und demokratisch gestaltet sein.
Da wo wir nicht hinsehen, droht uns eine digitale Autokratie im Interesse Weniger – statt einer Gesellschaft, die Technologie für alle nutzbar macht.
Die Frage ist nicht, ob wir die Zukunft gestalten können. Sondern ob wir es wollen.
Jeder muss und jeder kann zu einer lebenswerten Gesellschaft beitragen. Haben Sie Angst vor einer Tafel? Nein, warum haben Sie Angst, Digitalisierung zu beurteilen?
Genau wie eine Tafel ist sie ein Hilfsmittel!
