1999: Die Chance für Europa (Patent ES2374881T3 – „Finder-Technologie: Einfach. Präzise. Halluzinationsfrei.“)


Die Finder-Welt – „Warum kompliziert, wenn es auch einfach geht?“

Wir schrieben Geschichte – mit 1.000 Kategorien gegen die Datenflut und KI-Halluzinationen. Bereits 1997 wurde das Konzept citythek.de geplant. Nicht als weitere Experten-Spielwiese, sondern als Abbildung der analogen Welt mit der Finder-Suchmaschine, die von Konzept her ausgereifter war als heutige KI-Systeme. Es baute auf meiner zehnjährigen Erfahrung mit dem Unterricht erwachsener Analphabeten auf (1985). Mein Patent ES2374881T3 war der Schlüssel: Statt Nutzer mit unüberschaubaren Datenmengen oder fehleranfälligen Algorithmen zu konfrontieren, setzte ich auf die Zuordnung 1.000 präzise Kategorien. Semantic Web blieb hingegen Elfenbeinturm: RDF, DAML, OIL – die Standards klangen wie eine Geheimsprache. Selbst Tech-Enthusiasten verzweifelten an der Komplexität.

Warum das besser war als alles, was heute kommt:

  • Jeder Finder (Token) wurde einer oder mehreren der 1.000 Kategorien zugeordnet. Das reduzierte die Fehlerquote auf ein Minimum – weil die KI nur noch innerhalb klar definierter Kategorien suchte.
  • Nutzer sahen sofort die passenden Kategorien und konnten mit einem Klick die richtige auswählen. Die KI musste nicht raten, sondern wählte gezielt Einträge aus, die bereits in der entsprechenden Kategorie hinterlegt waren.
  • Minimaler Content, maximale Effizienz: Statt endlose Datenmengen zu durchforsten, arbeitete das System mit vorstrukturierten, validierten Kategorien. Das Ergebnis? Schnellere Antworten, weniger Fehler, keine Ablenkung, weniger Strombedarf.

Das Gegenmodell zu den Gatekeepern

Während Google und Co. Nutzer durch Labyrinthe aus Werbung und Ablenkung schicken – wie ein Laden, der vor dem Eingang absichtlich Gänge baut, um mehr Plakate aufzuhängen –, setzte ich auf Direktheit und Nutzerkontrolle. Mein System brauchte keine Umwege, weil es von Anfang an menschliche Logik abbildete.

Die Folgen: Eine Suchmaschine, die Europa hätte verändern können

  • Keine Halluzinationen, keine Datenflut: Nutzer fanden, was sie suchten – ohne Irrwege, ohne Manipulation.
  • Wertschöpfung in Europa: Statt Daten an US-Konzerne zu verschenken, wäre hätte es mit der Finder-Technologie eine europäische Infrastruktur gegeben – transparent, demokratisch und fairer Verteilung der Wertschöpfung.
  • Die Grundlage für getmysense: Ein soziales Netzwerk, das Nutzer befähigt, statt sie auszuspionieren (siehe 2012).

Blick aus 2026 – „Als Europa die Zukunft verschlief“

Wie das Semantic Web an der Realität scheiterte – und warum wir heute noch den Preis zahlen. 1999 hätte alles anders laufen können. Doch statt auf meine präzise, nutzerfreundliche Klassifizierung zu setzen, vertraute die Welt auf abstrakte Theorien und Profitgier.

Die drei fatalen Fehler der Digitalwirtschaft:

  1. Komplexität statt Einfachheit: Das Semantic Web scheiterte an seiner eigenen Überforderung. Meine 1.000 Kategorien wären die Rettung gewesen .
  2. Gatekeeper statt Nutzerkontrolle: Google, Facebook & Co. bauten ihre Imperien auf Ablenkung und Datenausbeutung. Mein Modell hätte gezeigt: Es geht auch ohne Werbe-Labyrinthe.
  3. Keine Übertragung menschlicher Strukturen: Heute kämpfen selbst moderne Systeme mit Halluzinationen – weil sie keine klaren Kategorien haben. Mein Ansatz von 1999 war da schon weiter.

Die Folgen:

  • Google & Co. dominieren: Nicht weil sie besser sind, sondern weil sie Nutzer in ihren Systemen gefangen halten.
  • Europa bleibt abhängig: Statt Finder zu fördern, importierte man US-Technologien – und verlor die Kontrolle über Daten und Werte.
  • Die Ironie: Heute suchen Konzerne verzweifelt nach Lösungen für „vertrauenswürdige KI“ – dabei hatte ich sie schon 1999.
  • Was bleibt? Eine Frage, die sich bis heute stellt: Warum setzte Europa auf Komplexität, wo es eine einfache, bessere Lösung gab? (Die Antwort folgt – Jahr für Jahr, bis 2045.)

GraTeach ist über die Region hinaus als Führungsschmiede mit den Kamp-Lintforter Basisgesprächen und dem Online-Magazin bekannt geworden. Wer sich mit den vielen Projekten beschäftigen möchte, sollte sich die gesamte GraTeach.de-Zeitleiste von 1990 bis 2001 mit den hinter den Links liegenden Informationen ansehen.

Der GAP 1999:

Ein GAP ist noch nicht entstanden. Google und Amazon Deutschland wurden erst 1998 gegründet.

1985 – Wie alles begann

In dieser Blogreihe „The real Trillion Euro Gap“ vergleiche ich – beginnend mit 1999 bis zu einer Vorschau bis 2045 – zwei Entwicklungen:
eine destruktive, von kurzfristigen Interessen geprägte Fehlentwicklung unserer Gesellschaft und
eine proaktiv gestaltete digitale Zukunft, die vordigitale Errungenschaften bewahrt und weiterentwickelt.
Jahrzehntelang habe ich versucht, ein ganzheitliches Konzept für eine solche Gesellschaft zu begleiten. Doch der Vergleich zeigt:
Es ist eine Lücke von Billionen Euro entstanden – als wirtschaftlicher Schaden und für Investitionen, die nötig wären, um die Fehlentwicklungen wieder auszugleichen.

Diese Lücke ist kein Zufall. Sie ist das Ergebnis verpasster Chancen, ignorierter Patente und einer Digitalisierung, die oft von autokratischen Geschäftsmodellen dominiert wird.
Doch es geht nicht nur um Zahlen. Es geht um die Frage:
Wie hätte eine inklusive, partizipative Gesellschaft aussehen können – und wie können wir sie noch gestalten?


Ein pädagogischer Meilenstein: Die Segmentiermethode (1985)

Schon 1985 legten Ingrid Daniels und ich in unserer Diplomarbeit den Grundstein für ein Prinzip, das heute in der KI als Tokenisierung bekannt ist.
Die Segmentiermethode war ein hybrides, teilnehmerorientiertes Verfahren, das Wörter in sinnvolle, wiedererkennbare Einheiten zerlegte – nicht in Buchstaben, sondern in bedeutungstragende Segmente.
Damals ging es um Alphabetisierung. Heute ist dieser Ansatz relevant für KI, Semantic Web und inklusive Bildung.
Bereits damals wurde von Token gesprochen. (Auszug aus dem von uns erstellten Lehrmaterial).

Grundprinzipien der Segmentiermethode

  • Segmentierung statt Buchstabenisolierung:
    Wörter werden in wiederkehrende Einheiten wie „Haus-“, „-tür“ oder „-licht“ zerlegt.
    Beispiel: „Hauslicht“ → „Haus-“ + „-licht“ (analog zu „Tageslicht“).
    Ziel: Schnelle Mustererkennung, um Lesen und Schreiben durch Assoziation zu beschleunigen.
  • Kontextuelle Einbettung:
    Segmente werden in Alltagssituationen vermittelt (z. B. „Wo findest du -licht noch?“ → „Mondlicht“, „Kerzenlicht“).
    Das fördert Transferfähigkeit und reduziert die kognitive Last.
  • Teilnehmerorientierung:
    Die Segmente stammen aus der Sprache der Lernenden selbst – ähnlich dem Spracherfahrungsansatz.
    Lernende identifizieren Muster in selbst erstellten Texten.
  • Visuelle Unterstützung:
    Farbcodierung oder Symbole verankern die Segmente.
    Beispiel: Alle Wörter mit „-ung“ werden blau markiert, um sie als „Dingwort-Baustein“ sichtbar zu machen.
  • Schnelle Erfolgserlebnisse:
    Durch häufige Segmente (z. B. „ge-“, „-en“) decodieren Lernende ganze Wortfamilien – ohne jeden Buchstaben analysieren zu müssen.

Vorteile – damals wie heute

  • Effizienz: Schnellerer Lernerfolg durch Mustererkennung.
  • Motivation: Lernende erschließen Wortfamilien und sehen Fortschritte.

Vergleich: Segmentiermethode (1985) vs. moderne Leselernmethoden (2026)

Kriterium Segmentiermethode (1985) Heutige Methoden (2026)
Grundansatz Hybrid: Segmente + Ganzheitlichkeit Multimodal: Phonik, Ganzwort, Morphemik + digitale Tools
Einheiten Bedeutungstragende Segmente (z. B. „-ung“) Morphemik („Wortbausteine“) + Silbenmethode
Technologie Manuelle Segmentierung, später Datenbanken KI-gestützte Plattformen (z. B. „Antura“, „GraphoGame“)
Teilnehmerorientierung Alltagssprache, selbst erstellte Texte Personalisiertes Lernen durch Algorithmen (z. B. „Duolingo ABC“)
Visuelle Hilfen Farbcodierung, Symbole Gamification (z. B. „Endless Alphabet“), Augmented Reality
Zielgruppe Erwachsene Analphabeten Inklusive Ansätze für alle Altersgruppen
Wissenschaftliche Basis Praxiserfahrung, linguistische Intuition Neurowissenschaft, Langzeitstudien zu Leseflüssigkeit

Aktuelle Trends, die die Segmentiermethode bestätigen

  1. Morphemische Ansätze sind heute Standard (z. B. in deutschen Grundschulen).
    Meine Idee von 1999 (Europapatent ES2374881T3):
    1.000 Kernkategorien nutzen – ähnlich heutigen „High-Frequency-Word“-Listen.
  2. KI-gestützte Segmentierung:
    Tools wie „GraphoGame“ passen Lernpfade adaptiv an – ein Prinzip, das wir früh forderten.
  3. Spracherfahrung + Technologie:
    Apps wie „Speechify“ wandeln Sprache in Texte um und markieren Segmente automatisch.
  4. Sozialer Kontext:
    Moderne Methoden betonen kollaboratives Lernen (z. B. „Alphabetisierungscafés“) –
    genau wie unser Ansatz.

Kritik an heutigen Methoden

  • Übertechnisierung: Manche Tools verlieren den menschlichen Dialog (à la Freire/Freinet).
  • Kulturelle Blindstellen: Datengetriebene Segmentierung ignoriert oft lokale Kontexte.
  • Kommerzialisierung: Viele Apps sind nicht frei zugänglich – unser Ansatz setzte auf offene Wissensvermittlung.

Fazit: Warum dieser Ansatz die Gesellschaft voranbringt

Die Segmentiermethode war visionär, weil sie:

  • Hybridität vorwegnahm (heute Standard in der Pädagogik),
  • Teilnehmerorientierung und Kontextualisierung betonte (heute neu entdeckt),
  • zeigte, wie gesellschaftlich strukturrelevante Forschung Innovation treibt – ohne autokratische Geschäftsmodelle.

Dieses Beispiel steht für ein zentrales Anliegen der Reihe „The real Trillion Euro Gap“:
Digitalisierung ist kein Selbstzweck.
Sie muss inklusiv genau wie bisher analoge Forschungsarbeit, partizipativ und demokratisch gestaltet sein.
Da wo wir nicht hinsehen, droht uns eine digitale Autokratie im Interesse Weniger – statt einer Gesellschaft, die Technologie für alle nutzbar macht.

Die Frage ist nicht, ob wir die Zukunft gestalten können. Sondern ob wir es wollen.
Jeder muss und jeder kann zu einer lebenswerten Gesellschaft beitragen. Haben Sie Angst vor einer Tafel? Nein, warum haben Sie Angst, Digitalisierung zu beurteilen?
Genau wie eine Tafel ist sie ein Hilfsmittel!