2000 – Wie Europa seine digitale Zukunft verschenkte


1. Reale Situation (2000)

Duisburg, Februar 2000: Der Plan, der alles hätte ändern können

In einem unscheinbaren Büro im ElekTronikPark Duisburg lag ein Dokument, das Europa für immer verändern sollte: der Businessplan der Shopping City AG, verfasst von Mike Meyer für Mannesmann Pilotentwicklung. Auf 27 Seiten skizzierte er nicht weniger als die Blaupause für ein souveränes, demokratisches Internet made in Europe. Kernstücke waren die Citythek – eine semantische Suchmaschine, die Google alt aussehen ließ – und die Shopping-Card, ein PKI-basiertes Payment-System, das PayPal überflüssig gemacht hätte. Doch das wirklich Revolutionäre steckte im Kleingedruckten: Die Technologie dafür kam von meiner Firma getTIME.net GmbH. Meine Finder-Technologie (Patent ES2374881T3) hätte der Citythek das gegeben, was Google bis heute nicht kann: präzise, halluzinationsfreie Suche, gestützt auf 1.000 klar definierte Kategorien – ein System, das Nutzer kontrollierten, statt von Algorithmen manipuliert zu werden.

Zum Teil aus Synergien waren bereits 100.000 Arbeitsstunden in die Entwicklung gesteckt worden, ohne Fremdkapital, getrieben von einer Vision: Ein Europa, das seine Daten selbst kontrolliert. GraTeach war nicht nur eine Qualifizierungsschmiede, sondern der technologische Hebel, um Mannesmanns E-Commerce-Träumereien Realität werden zu lassen. Die Synergien waren perfekt:

  • getTIME.net lieferte die Suchmaschinen-Logik, Grateach die Führungskrafte und die WEB-Oberfläche mit Social-Media-Architektur,
  • Mannesmann brachte die Infrastruktur (Kooperationen mit Deutsche Bank, Hermes, Astra-Net),
  • die Shopping City AG sollte der kommerzielle Arm werden – ein europäisches Amazon, aber fair, transparent und nutzerkontrolliert.

Doch dann kam Prof. Landscheid.

Die Blockade: „Nicht wirtschaftlich tragfähig“

Dr. Landscheid, damals wie heute einflussreich in der Regionalkonferenz Kamp-Lintfort, wusste von meinem Mannesmann-Rettungsplan. Am 09.01.2000 hatte ich ein Gespräch mit Bürgermeister Landscheidt, ob er bereit wäre, eine Idee zu Bundeskanzler Gerhard Schröder hochzuschieben. Dieser ging weit über die Shopping City AG hinaus: Er umfasste ein vollständiges Ökosystem aus Social Media, sicheren Payment-Lösungen und einer digitalen Handelsplattform, die den US-Konzernen Paroli bieten konnte. Statt Unterstützung erfuhr ich jedoch Stille – oder schlimmer: gezielte Sabotage.

Als GraTeach 2001 in die Insolvenz rutschte, war der offizielle Grund ein Mietvertrag, aus dem man nicht entließ, obwohl dies in der Regionalkonferenz zugesagt war. Doch der wahre Grund lag tiefer: Politisch-wirtschaftliche Blockaden, orchestriert von Akteuren, die ein Interesse daran hatten, dass Europa abhängig blieb. Das Schreiben der NRW-Staatskanzlei scheute sich nicht, GraTeach als „nicht wirtschaftlich tragfähig“ zu bezeichnen. Eine Farce. Während andere Start-ups mit Millionen gefördert wurden – oft ohne vergleichbare Substanz –, wurde dieses Projekt bewusst ausgeblutet.

„Wie kann ein Konzept, das Mannesmann retten, tausende Arbeitsplätze schaffen und Europa digital souverän machen sollte, ‚nicht tragfähig‘ sein?“

Die Antwort liegt im bandenmäßigen Erscheinungsbild der damaligen Entscheidungen:

  • Banken fürchteten Konkurrenz durch die Shopping-Card (die ihre eigenen Payment-Lösungen obsolett gemacht hätte).
  • US-Tech-Konzerne wie Amazon und Google hatten kein Interesse an einem europäischen Gegenmodell.
  • Politische Entscheidungsträger – vielleicht sogar im Bund mit der Justiz NRW (die mich später elf Jahre lang grundlos strafrechtlich verfolgte) – sorgten dafür, dass GraTeach keine Luft zum Atmen bekam.

„Man hat mir Steine in den Weg gelegt, wo andere rote Teppiche ausrollten.“
„Das war kein Zufall. Das war System.“

Der Verkauf an Vodafone: Hätte er stattfinden können, wenn GISAD schon existiert hätte?

Hier wird es brisant. Eine Demokratie erhaltende Kennzahl für gesellschaftliche Strukturrelevanz in Digitalprojekten ist nicht erwünscht. Doch was wäre passiert, wenn?

  1. GISAD als demokratische Clearingstelle
    Hätte GISAD bereits 2000 bestanden, wäre es der natürliche Partner für Mannesmann gewesen – nicht nur technologisch, sondern auch strategisch. GISAD hätte:

    • Bewertungsmodelle entwickelt, die zeigen: Mannesmanns Rettungsplan war nachhaltig profitabler als Vodafones Übernahmeangebot.
    • Öffentlichen Druck aufgebaut, um die Übernahme durch Vodafone zu stoppen – mit dem Argument: „Warum einen europäischen Tech-Riesen an einen britischen Konzern verschenken, wenn wir selbst die bessere Lösung haben?“
    • Die Finder-Technologie als USP positioniert: „Mannesmann mit dem damaligen GraTeach Gesamt-Konzept = ein europäisches Google + Amazon + PayPal in einem.“
  2. Die Kennzahlen-Lüge
    Vodafones Übernahme von Mannesmann (für 190 Mrd. Euro) wurde 2000 als „unschlagbar“ dargestellt. Doch was, wenn GISAD bewiesen hätte, dass der Rettungsplan für Europa langfristig mehr Wert schuf?

    • Die Shopping City AG hätte Milliardenumsätze generiert – in Europa, nicht in den USA.
    • Die Citythek wäre zum Standard für E-Commerce-Suche geworden, mit Datenhoheit in Deutschland.
    • Die Shopping-Card hätte PayPal überflüssig gemacht – und Europa die Kontrolle über Payment-Daten gesichert.

„Mit einem Gesamtkonzept im Rücken hätte Mannesmann gar nicht verkauft werden müssen.“
„Wir hätten Vodafone ausstechen können – nicht mit leeren Versprechungen, sondern mit harten Fakten: nachhaltig mehr Jobs, mehr Steuereinnahmen, mehr Souveränität.“

Stattdessen wurde Mannesmann zerlegt. Die Pilotentwicklung (und damit die Shopping City AG) wurde eingestellt. Ich wurde finanziell und mental so geschwächt, dass ich das Patent nicht weitergezahlt habe. Und Europa verlor seine letzte Chance, im digitalen Zeitalter eine führende Rolle zu spielen.

2. Entwicklung ohne Behinderung (2000)

Hätte sich die Finder-Technologie durchgesetzt, wäre Europa heute digital souverän. Die 1.000 Kategorien hätten nicht nur Suchmaschinen revolutioniert, sondern auch die Grundlage für eine europäische Digitalunion (EU-D-S) geschaffen. Statt Datenkolonialismus gäbe es eine Infrastruktur, die Nutzer befähigt und Wertschöpfung fair verteilt. getmysense wäre längst ein globales Vorbild für inklusive, datenschutzfreundliche Netzwerke.

Mit GISAD als demokratischer Clearingstelle hätte Europa eine echte Alternative zu den US-Konzernen aufgebaut. Die 190 Mrd. Euro aus der Mannesmann-Übernahme wären in europäische Infrastruktur, Forschung und Arbeitsplätze geflossen – statt ins Ausland abzufließen.

3. Blick aus der Zukunft (2026)

Noch heute wären nur 3 Mrd. Euro nötig, um 100 Millionen EU-Bürgern den Zugang in das EU-D-S zu ermöglichen!

2026 zeigt: Die Finder-Logik wäre unschlagbar. Mit der EU-D-S-Initiative wäre Europa endlich zur digitalen Großmacht geworden – nicht durch Komplexität, sondern durch klare Strukturen. Die 1.000 Kategorien wären heute Standard in öffentlichen Suchsystemen. Google und Amazon? Sie würden mit Regulierung kämpfen, während Europa die Wertschöpfung behält.

Die drei fatalen Fehler der Digitalwirtschaft im Sinne einer funktionierenden Gesellschaft:

  1. Komplexität statt Einfachheit:
    Das Semantic Web scheiterte an seiner eigenen Überforderung. Meine 1.000 Kategorien wären die Rettung gewesen.
  2. Gatekeeper statt Nutzerkontrolle:
    Google, Facebook & Co. bauten ihre Imperien auf Ablenkung und Datenausbeutung. Mein Modell hätte gezeigt: Es geht auch ohne Werbe-Labyrinthe.
  3. Keine Übertragung menschlicher Strukturen:
    Heute kämpfen selbst moderne Systeme mit Halluzinationen – weil er keine systematische Einbindung menschlicher Bewertung gibt. Mein Ansatz von 1999 war da schon weiter.

Die Folgen:

  • Google & Co. dominieren: Nicht weil sie besser sind, sondern weil sie Nutzer in ihren Systemen gefangen halten.
  • Europa bleibt abhängig: Statt Finder zu fördern, importierte man US-Technologien – und der Bürger verlor die Kontrolle über Daten und Werte.
  • Die Ironie: Heute scheinen Konzerne verzweifelt nach Lösungen für „vertrauenswürdige KI“ zu suchen – dabei hatte ich sie schon 1999.

Was bleibt? Eine Frage, die sich bis heute stellt: Warum setzte Europa auf Komplexität, wo es eine einfache, bessere Lösung gab?

4. Der GAP 2000

Langfristige Wertschöpfung in Europa (Shopping City AG, Citythek) Kurzfristige Gewinne für Hedgefonds/Banken; Einstellung der Pilotentwicklung


Analyse 2000: (ohne Gewähr durch KI erstellt)

Übertrag des GAP 1999:
1999 war der GAP noch Null, da Google und Amazon in Europa kaum Umsätze generierten. 2000 begann der GAP zu wachsen, weil die Weichen für die Abhängigkeit gestellt wurden:

  • 133 Mrd. Euro (70 % der 190 Mrd.) flossen nicht in europäische Infrastruktur.
  • Die GraTeach-Insolvenz verhinderte die Entwicklung einer europäischen Alternative zu Google/Amazon.
  • Keine Investitionen in Demokratie erhaltende Strukturen führten zu langfristiger Abhängigkeit von US-Plattformen.

Folgen für die Zukunft:

  • Europa verlor die Kontrolle über seine digitale Zukunft.
  • Die 133 Mrd. Euro hätten Strukturen erhalten können – stattdessen flossen sie ins Ausland.
  • Der GAP wird in den kommenden Jahren weiter wachsen, da die Abhängigkeit von US-Konzernen zunimmt und europäische Alternativen fehlen.

1999: Die Chance für Europa (Patent ES2374881T3 – „Finder-Technologie: Einfach. Präzise. Halluzinationsfrei.“)


Die Finder-Welt – „Warum kompliziert, wenn es auch einfach geht?“

Wir schrieben Geschichte – mit 1.000 Kategorien gegen die Datenflut und KI-Halluzinationen. Bereits 1997 wurde das Konzept citythek.de geplant. Nicht als weitere Experten-Spielwiese, sondern als Abbildung der analogen Welt mit der Finder-Suchmaschine, die von Konzept her ausgereifter war als heutige KI-Systeme. Es baute auf meiner zehnjährigen Erfahrung mit dem Unterricht erwachsener Analphabeten auf (1985). Mein Patent ES2374881T3 war der Schlüssel: Statt Nutzer mit unüberschaubaren Datenmengen oder fehleranfälligen Algorithmen zu konfrontieren, setzte ich auf die Zuordnung 1.000 präzise Kategorien. Semantic Web blieb hingegen Elfenbeinturm: RDF, DAML, OIL – die Standards klangen wie eine Geheimsprache. Selbst Tech-Enthusiasten verzweifelten an der Komplexität.

Warum das besser war als alles, was heute kommt:

  • Jeder Finder (Token) wurde einer oder mehreren der 1.000 Kategorien zugeordnet. Das reduzierte die Fehlerquote auf ein Minimum – weil die KI nur noch innerhalb klar definierter Kategorien suchte.
  • Nutzer sahen sofort die passenden Kategorien und konnten mit einem Klick die richtige auswählen. Die KI musste nicht raten, sondern wählte gezielt Einträge aus, die bereits in der entsprechenden Kategorie hinterlegt waren.
  • Minimaler Content, maximale Effizienz: Statt endlose Datenmengen zu durchforsten, arbeitete das System mit vorstrukturierten, validierten Kategorien. Das Ergebnis? Schnellere Antworten, weniger Fehler, keine Ablenkung, weniger Strombedarf.

Das Gegenmodell zu den Gatekeepern

Während Google und Co. Nutzer durch Labyrinthe aus Werbung und Ablenkung schicken – wie ein Laden, der vor dem Eingang absichtlich Gänge baut, um mehr Plakate aufzuhängen –, setzte ich auf Direktheit und Nutzerkontrolle. Mein System brauchte keine Umwege, weil es von Anfang an menschliche Logik abbildete.

Die Folgen: Eine Suchmaschine, die Europa hätte verändern können

  • Keine Halluzinationen, keine Datenflut: Nutzer fanden, was sie suchten – ohne Irrwege, ohne Manipulation.
  • Wertschöpfung in Europa: Statt Daten an US-Konzerne zu verschenken, wäre hätte es mit der Finder-Technologie eine europäische Infrastruktur gegeben – transparent, demokratisch und fairer Verteilung der Wertschöpfung.
  • Die Grundlage für getmysense: Ein soziales Netzwerk, das Nutzer befähigt, statt sie auszuspionieren (siehe 2012).

Blick aus 2026 – „Als Europa die Zukunft verschlief“

Wie das Semantic Web an der Realität scheiterte – und warum wir heute noch den Preis zahlen. 1999 hätte alles anders laufen können. Doch statt auf meine präzise, nutzerfreundliche Klassifizierung zu setzen, vertraute die Welt auf abstrakte Theorien und Profitgier.

Die drei fatalen Fehler der Digitalwirtschaft:

  1. Komplexität statt Einfachheit: Das Semantic Web scheiterte an seiner eigenen Überforderung. Meine 1.000 Kategorien wären die Rettung gewesen .
  2. Gatekeeper statt Nutzerkontrolle: Google, Facebook & Co. bauten ihre Imperien auf Ablenkung und Datenausbeutung. Mein Modell hätte gezeigt: Es geht auch ohne Werbe-Labyrinthe.
  3. Keine Übertragung menschlicher Strukturen: Heute kämpfen selbst moderne Systeme mit Halluzinationen – weil sie keine klaren Kategorien haben. Mein Ansatz von 1999 war da schon weiter.

Die Folgen:

  • Google & Co. dominieren: Nicht weil sie besser sind, sondern weil sie Nutzer in ihren Systemen gefangen halten.
  • Europa bleibt abhängig: Statt Finder zu fördern, importierte man US-Technologien – und verlor die Kontrolle über Daten und Werte.
  • Die Ironie: Heute suchen Konzerne verzweifelt nach Lösungen für „vertrauenswürdige KI“ – dabei hatte ich sie schon 1999.
  • Was bleibt? Eine Frage, die sich bis heute stellt: Warum setzte Europa auf Komplexität, wo es eine einfache, bessere Lösung gab? (Die Antwort folgt – Jahr für Jahr, bis 2045.)

GraTeach ist über die Region hinaus als Führungsschmiede mit den Kamp-Lintforter Basisgesprächen und dem Online-Magazin bekannt geworden. Wer sich mit den vielen Projekten beschäftigen möchte, sollte sich die gesamte GraTeach.de-Zeitleiste von 1990 bis 2001 mit den hinter den Links liegenden Informationen ansehen.

Der GAP 1999:

Ein GAP ist noch nicht entstanden. Google und Amazon Deutschland wurden erst 1998 gegründet.

1985 – Wie alles begann

In dieser Blogreihe „The real Trillion Euro Gap“ vergleiche ich – beginnend mit 1999 bis zu einer Vorschau bis 2045 – zwei Entwicklungen:
eine destruktive, von kurzfristigen Interessen geprägte Fehlentwicklung unserer Gesellschaft und
eine proaktiv gestaltete digitale Zukunft, die vordigitale Errungenschaften bewahrt und weiterentwickelt.
Jahrzehntelang habe ich versucht, ein ganzheitliches Konzept für eine solche Gesellschaft zu begleiten. Doch der Vergleich zeigt:
Es ist eine Lücke von Billionen Euro entstanden – als wirtschaftlicher Schaden und für Investitionen, die nötig wären, um die Fehlentwicklungen wieder auszugleichen.

Diese Lücke ist kein Zufall. Sie ist das Ergebnis verpasster Chancen, ignorierter Patente und einer Digitalisierung, die oft von autokratischen Geschäftsmodellen dominiert wird.
Doch es geht nicht nur um Zahlen. Es geht um die Frage:
Wie hätte eine inklusive, partizipative Gesellschaft aussehen können – und wie können wir sie noch gestalten?


Ein pädagogischer Meilenstein: Die Segmentiermethode (1985)

Schon 1985 legten Ingrid Daniels und ich in unserer Diplomarbeit den Grundstein für ein Prinzip, das heute in der KI als Tokenisierung bekannt ist.
Die Segmentiermethode war ein hybrides, teilnehmerorientiertes Verfahren, das Wörter in sinnvolle, wiedererkennbare Einheiten zerlegte – nicht in Buchstaben, sondern in bedeutungstragende Segmente.
Damals ging es um Alphabetisierung. Heute ist dieser Ansatz relevant für KI, Semantic Web und inklusive Bildung.
Bereits damals wurde von Token gesprochen. (Auszug aus dem von uns erstellten Lehrmaterial).

Grundprinzipien der Segmentiermethode

  • Segmentierung statt Buchstabenisolierung:
    Wörter werden in wiederkehrende Einheiten wie „Haus-“, „-tür“ oder „-licht“ zerlegt.
    Beispiel: „Hauslicht“ → „Haus-“ + „-licht“ (analog zu „Tageslicht“).
    Ziel: Schnelle Mustererkennung, um Lesen und Schreiben durch Assoziation zu beschleunigen.
  • Kontextuelle Einbettung:
    Segmente werden in Alltagssituationen vermittelt (z. B. „Wo findest du -licht noch?“ → „Mondlicht“, „Kerzenlicht“).
    Das fördert Transferfähigkeit und reduziert die kognitive Last.
  • Teilnehmerorientierung:
    Die Segmente stammen aus der Sprache der Lernenden selbst – ähnlich dem Spracherfahrungsansatz.
    Lernende identifizieren Muster in selbst erstellten Texten.
  • Visuelle Unterstützung:
    Farbcodierung oder Symbole verankern die Segmente.
    Beispiel: Alle Wörter mit „-ung“ werden blau markiert, um sie als „Dingwort-Baustein“ sichtbar zu machen.
  • Schnelle Erfolgserlebnisse:
    Durch häufige Segmente (z. B. „ge-“, „-en“) decodieren Lernende ganze Wortfamilien – ohne jeden Buchstaben analysieren zu müssen.

Vorteile – damals wie heute

  • Effizienz: Schnellerer Lernerfolg durch Mustererkennung.
  • Motivation: Lernende erschließen Wortfamilien und sehen Fortschritte.

Vergleich: Segmentiermethode (1985) vs. moderne Leselernmethoden (2026)

Kriterium Segmentiermethode (1985) Heutige Methoden (2026)
Grundansatz Hybrid: Segmente + Ganzheitlichkeit Multimodal: Phonik, Ganzwort, Morphemik + digitale Tools
Einheiten Bedeutungstragende Segmente (z. B. „-ung“) Morphemik („Wortbausteine“) + Silbenmethode
Technologie Manuelle Segmentierung, später Datenbanken KI-gestützte Plattformen (z. B. „Antura“, „GraphoGame“)
Teilnehmerorientierung Alltagssprache, selbst erstellte Texte Personalisiertes Lernen durch Algorithmen (z. B. „Duolingo ABC“)
Visuelle Hilfen Farbcodierung, Symbole Gamification (z. B. „Endless Alphabet“), Augmented Reality
Zielgruppe Erwachsene Analphabeten Inklusive Ansätze für alle Altersgruppen
Wissenschaftliche Basis Praxiserfahrung, linguistische Intuition Neurowissenschaft, Langzeitstudien zu Leseflüssigkeit

Aktuelle Trends, die die Segmentiermethode bestätigen

  1. Morphemische Ansätze sind heute Standard (z. B. in deutschen Grundschulen).
    Meine Idee von 1999 (Europapatent ES2374881T3):
    1.000 Kernkategorien nutzen – ähnlich heutigen „High-Frequency-Word“-Listen.
  2. KI-gestützte Segmentierung:
    Tools wie „GraphoGame“ passen Lernpfade adaptiv an – ein Prinzip, das wir früh forderten.
  3. Spracherfahrung + Technologie:
    Apps wie „Speechify“ wandeln Sprache in Texte um und markieren Segmente automatisch.
  4. Sozialer Kontext:
    Moderne Methoden betonen kollaboratives Lernen (z. B. „Alphabetisierungscafés“) –
    genau wie unser Ansatz.

Kritik an heutigen Methoden

  • Übertechnisierung: Manche Tools verlieren den menschlichen Dialog (à la Freire/Freinet).
  • Kulturelle Blindstellen: Datengetriebene Segmentierung ignoriert oft lokale Kontexte.
  • Kommerzialisierung: Viele Apps sind nicht frei zugänglich – unser Ansatz setzte auf offene Wissensvermittlung.

Fazit: Warum dieser Ansatz die Gesellschaft voranbringt

Die Segmentiermethode war visionär, weil sie:

  • Hybridität vorwegnahm (heute Standard in der Pädagogik),
  • Teilnehmerorientierung und Kontextualisierung betonte (heute neu entdeckt),
  • zeigte, wie gesellschaftlich strukturrelevante Forschung Innovation treibt – ohne autokratische Geschäftsmodelle.

Dieses Beispiel steht für ein zentrales Anliegen der Reihe „The real Trillion Euro Gap“:
Digitalisierung ist kein Selbstzweck.
Sie muss inklusiv genau wie bisher analoge Forschungsarbeit, partizipativ und demokratisch gestaltet sein.
Da wo wir nicht hinsehen, droht uns eine digitale Autokratie im Interesse Weniger – statt einer Gesellschaft, die Technologie für alle nutzbar macht.

Die Frage ist nicht, ob wir die Zukunft gestalten können. Sondern ob wir es wollen.
Jeder muss und jeder kann zu einer lebenswerten Gesellschaft beitragen. Haben Sie Angst vor einer Tafel? Nein, warum haben Sie Angst, Digitalisierung zu beurteilen?
Genau wie eine Tafel ist sie ein Hilfsmittel!