Natürliche Intelligenz versus Künstliche Intelligenz von Thomas Seidel

Brigitte Helm im Film METROPOLIS, Deutschland 1927
(Quelle: Google, gemeinfrei)


In unseren heutigen Zeiten vergeht fast kein Tag mehr, an dem nicht über Künstliche Intelligenz (KI) (engl.: Artificial Intelligence (AI)) geschrieben oder gesprochen wird. Oft verwendet man in einem Atemzug mit der KI auch noch das Wort Digitalisierung. Dann gibt es Zeitgenossen, die sich gerne ganz schlau tun und ständig den Begriff „Blockchain“ in den Mund nehmen. Bevor all das durcheinander gerät, ist es an der Zeit, sich einen Durchblick durch dieses modische Gerede zu verschaffen und einmal nach zu sehen, was wirklich dahinter steckt.

Alle diese neuen Begriffe werden von Leuten mit ganz unterschiedlichen Interessen benutzt. Da gibt es Wirtschaftsvertreter, die vor steil sinkender Wettbewerbsfähigkeit warnen, wenn man sich nicht den Herausforderungen all dieser neuen Technologien zeitnah stellt. Wobei „zeitnah“ sehr ambivalent gemeint ist. Bei den Einen ist es noch Fünf vor Zwölf und bei den Anderen ist es schon Fünf nach Zwölf. Da gibt es Gewerkschafter, die vor massiven Jobverlusten warnen, wenn man sich überhaupt auf diese Dinge einlässt und die am liebsten alles so lassen würden, wie es ist. Da gibt es Soziologen, die einen grundlegenden Wandel ganzer Gesellschaften in ihrem Arbeits- Konsum- und Freizeitverhalten vorhersehen. Da gibt es Politiker, die sowieso jegliche Zukunft ignorieren, soweit es sich nicht um Maßnahmen für ihre nächste Wiederwahl handelt. Da gibt es Kirchen, die ganz allgemein von einer Entmenschlichung sprechen.

Colossus The Forbin Project Amerika 1970
(Quelle: Google)
Und da gibt es Hollywood. Dort wird schon seit Jahrzehnten ein Horrorszenario nach dem anderen über die technologische Zukunft in die Kinos gebracht. Angefangen beim Supercomputer Colossos, mit dem man sich zunächst noch per Telexmaschine unterhielt und der nach seiner Inbetriebnahme gemeinsam mit einem sowjetischen Rechnerkollegen Guardian kurzerhand die ganze Menschheit mit einem Atomschlag bedroht, würde sie sich seinem Regime nicht unterordnen. Dieses Szenario wurde Jahre später in der Filmreihe „Terminator“ wieder aufgegriffen und fortgesetzt. Aber es gibt auch eine verfehlte Interpretation von Isaac Asimovs „Ich der Robot“, in der die Maschinenmenschen die Anerkennung ihrer Menschlichkeit einfordern. Nicht zu vergessen Stanley Kubriks Meisterwerk „2001 Odyssee im Weltraum“, in dem der Supercomputer HAL 9000 unter Tötung fast aller menschlicher Crewmitglieder die Durchführung einer Weltraummission übernimmt, weil HAL zu der Überzeugung gekommen ist, dass die Menschen für neue Erkenntnisse eh zu blöd seien.

Die ultimative Fratze der bösartigen Maschine der Terminator
((Quelle: https-//www.flickr.com/photos/31029865@N06/14810867549/
CCL, Urheber: Dick Thomas Johnson)
Weil Marsmenschen und Aliens aber immer noch auf sich warten lassen und auch sonst die vielfältigen täglichen Bedrohungen der Menschen untereinander für einige offensichtlich viel zu langweilig sind, baut man sich also lieber ein neuartiges Bedrohungsszenario auf, eben digitalisierte, block-gechainte künstliche Intelligenz. Mit ein bisschen Denglischem Sprachmurks könnte man also ein Bild malen, in dem der Mensch an einen „Block“ gekettet (engl.: „chain“) ist, seine Arbeit durch die Digitalisierung verloren hat und sein Leben von einer beckmesserischen künstlichen Intelligenz kontrolliert wird.

Schreckgespenst Digitalisierung
Noch vor nicht allzu langer Zeit hat ein deutscher Bankvorstandssprecher in aller Öffentlichkeit das Thema Digitalisierung als für sein Kreditinstitut nicht massgebliche Entwicklung abgetan. Seit etwa zwei Jahren, ist der gleiche Banker allerdings ganz anderer Meinung und möchte nun seine Bank führend in das Zeitalter der Digitalisierung zwingen. Es gibt inzwischen Versicherungsunternehmen, die stolz darauf sind, einen Versicherungsvertrag vom Abschluss bis zur Behandlung eines Versicherungsfalls ohne weiteres Zutun eines Menschen verwalten zu können. In der Automobilindustrie strebt man schon lange menschenleere Fertigungsstraßen an. Ganze Hafenanlagen mit Container-Verlade funktionieren nahezu vollautomatisch. So geht es immer weiter. Besonders fortgeschritten ist die Digitalisierung bereits da, wo es um die konkrete Herstellung physikalischer Produkte geht. Jetzt soll vor allem der Dienstleistungssektor digitalisiert werden. Dort werden noch erstaunlich viele einfachste Handgriffe von hilfsarbeitenden Menschen erledigt. Das gilt insbesondere in der Verwaltung. Es gibt aber auch Gesellschaftsbereiche, die sich erfolgreich gegen jede Art der Digitalisierung zur Wehr setzen. Das betrifft beispielsweise das gesamte Gesundheitswesen und dort insbesondere die Krankenkassen.

Der Computer HAL 9000, im HIntergrund, ließt den Menschen von den Lippen ab
 Szene aud dem Film 2001 Odyssee im Weltraum Grobritannien 1968
(Quelle: Google, FAZ, © PICTURE ALLIANCE / UNITED ARCHIV )
Wie dem auch sei, so gesehen wird Digitalisierung sehr oft als die vollkommene Automatisierung von produktiven Geschäftsabläufen missverstanden. Es mag ja sein, dass der Zusammenbau (englisch: assembling) von bestimmten Fertigteilen zu einem größeren funktionierenden Ganzen sich immer weiter automatisieren lässt. Wer aber glaubt, sobald solche Prozesse erst einmal eingerichtet worden sind, würden sie theoretisch ewig so ganz allein vor sich hin weiterlaufen, hat den Kern der Digitalisierung nicht verstanden.

Es geht nämlich nicht darum, das was heute noch von menschlicher Hand läuft in Zahlen und Ziffern oder in Computercode umzusetzen. Es geht auch nicht darum, menschliche Handschriften maschinenlesbar zu machen. Wenn Digitalisierung überhaupt erfolgreich sein soll, dann müßte es vor allem um Standardisierung gehen. Dann dürfte es, um es einmal anschaulich zu beschreiben, keinerlei Funktions- und Bedienungsunterschiede bei Produkten zum Beispiel von Mikrosoft oder Apple geben. Langweilig? Keineswegs! Es ist nicht einzusehen, warum die Pflege etwa von Kontaktadressen so unterschiedlich gestaltet und strukturiert ist, dass man die Daten ohne erhebliches manuelles Nacharbeiten nicht ohne weiteres von einem System in ein anderes übertragen kann.

Überall nur einen Barcode drauf zu klatschen, macht nocht
keine Digitalisierung aus
(Quelle: wikipedia, gemeinfrei)

Womit wir bei der Hauptcrux der ganzen Digitalisierung sind, der Stammdatenverwaltung. Von einigen wenigen IT-Spitzenleuten abgesehen, die es vielleicht zu Unternehmensvorständen geschafft haben, versteht kein Topmanager die Bedeutung qualitativ hochwertigster, absolut aktueller und juristisch nicht anfechtbarer Stammdaten. Für diese Ignoranten sind Stammdaten lediglich ein paar Kundenadressen, die man bestenfalls der Assistentin einer Sekretärin zum eintippen überlässt.



Ausnahmslos alle Unterbrechungen in digitalisierten Prozessen lassen sich auf einen mangelhaften Umgang mit Stammdaten zurückführen. Das ein noch so guter „deal“, wie es ja heute gerne heißt, nicht nur platzen, sondern sogar zu Schadenersatzforderungen führen kann, nur weil beispielsweise die Zahlungsinformation eines Geschäftspartners nicht zeitnah aktualisiert worden ist, wissen nur allzu gut vor allem die Leute aus dem Bankgeschäft zu berichten. Noch schlimmer ist allerdings, dass eine solch dümmliche Haltung von Geschäftsführern schon immer bis in das mittlere Management durchgesickert ist, wo man sich in guter alter deutscher Hierarchietradition nach wie vor gerne stets im Befehlsnotstand befindet.

Das Symbol Six Sigma
(Quelle: wikipedia, GNU-Lizenz,
Urheber:  de-Image-Six_sigma.svg by Luxo)
Deswegen wird es nichts mit der Digitalisierung. Jedenfalls solange nicht, bis Führungskräfte ihr Augenmerk weniger auf gute Verkaufszahlen, mit oft sehr dünnen Margen richten, statt auf qualitativ hochwertige Prozesse. Nur damit lassen sich noch hochwertigere Produkte herstellen, welche sich quasi wie von allein verkaufen. Für den Dienstleistungssektor ganz allgemein gilt, dass man von den Vorgaben eines SixSigma wie etwa in der Industrieproduktion noch Jahrzehnte entfernt ist und, wie zu vermuten ist, auch bleiben wird. (A.d.R.: SixSigma wurde ursprünglich in den 1970er Jahren in Japan angedacht, dann in den 1980er von Motorola und in den 1990er Jahren vor allem von General Electric weiter entwickelt. Angestrebt werden Fehlertoleranzen von nicht mehr als 0,00034 Prozent oder weniger.) Es gilt also Beruhigung für die Arbeitnehmer. Das große Aussortieren von reinen Hilfstätigkeiten wird so schnell nicht kommen, da auch künftig die Prozesse zwar weiter weg vom Papier sein werden, aber die eigentlichen Bruchstellen in den Prozessen, vor allem bei der Stammdatenqualität, auch künftig von den Entscheidern nicht wahrgenommen werden wollen.

Die Mär von der künstlichen Intelligenz
Die Produkte der IT-Industrie, und da vor allem die seit den 1980er Jahren rasant verbreiteten Personal Computer für Konsumenten, sind so ziemlich die schrottigsten Produkte, die seit dem Beginn der Industrialisierung jemals auf den Markt gekommen sind. Von ganz wenigen Ausnahmen abgesehen (Apple oder Palm) sind Rechner extrem anwenderunfreundlich und überladen mit unnützen Funktionen, die von den Kunden auch noch bezahlt werden müssen. Kein IT-Entwickler interessiert sich wirklich für das, was Verbraucher mit ihren Produkten machen, sondern nur für die Umsetzung und Präsentation seiner „schöpferischen“ Gedankenfurze.

Von Anfang an sind die Waren der IT-Industrie nicht sicher und die Verbraucher werden regelmäßig zu Millionen Opfer krimineller Handlungen mittels dieser Produkte. Getestet werden die Produkte so gut wie gar nicht. Statt dessen hat man eine perfide Methode entwickelt, die Test's, und die Kosten dafür, auf die Kunden abzuwälzen. Man bietet den Kunden sogenannte „Beta-Versionen“ an. Dann läßt man die Verbraucher auf die halbfertigen Produkte los und sammelt nur noch deren Kritiken ein, auf die dann vielleicht eingegangen wird. Die Hersteller haben ihre kostenintensive Testabteilungen also de facto günstig an die Kunden ausgelagert. Für Geräte der IT-Industrie die leicht vierstellige Anschaffungsbeträge kosten, gilt in der Regel ein Produktzyklus von zwei Jahren. Würde sich so etwas ein Hausgeräte- oder Automobilhersteller leisten, wäre er, vor allem in den USA, schon längst für alle Ewigkeiten in den Konkurs geklagt worden.

Waschvollautomat_Constructa aus den 1950er Jahren
So einTeil funktionierte locker 15 Jahre
(Quelle: wikipedia, GNU Lizenz, Urheber: eigenes Bild)
Die mächtigen Gewinne der Branche können nur deshalb generiert werden, weil man den Kunden in einer plausibel klingenden Marketingstrategie seit über dreißig Jahren etwas vorgemacht hat. Im Jahr 1965 formulierte der Amerikaner Gordon Moore, einer der Mitbegründer der Firma Intel, eine Regel, wonach sich alle 12 bis 24 Monaten die Komplexität integrierter Schaltkreise verdoppeln ließe, das sogenannte „Mooresche Gesetz“. Daraus folgt der Produktzyklus der IT-Industrie, wonach ständig eine neue Gerätegeneration angeschafft werden müsse, die wiederum nur mit einer neuen Softwareversion betrieben werden könne. Diese Spirale der ungerechtfertigten Wegwerfprodukte findet aber nun allmählich ihr Ende. Der Grund: Die bisherige physikalische Verdoppelung von Speicherkapazität ist an ihre Grenzen gestoßen. Mit neuen und bezahlbaren Technologien kommt die Grundlagenforschung nicht so schnell voran wie sich das viele in der IT-Branche wünschen.

So hat man sich eine neue Marketingstrategie ausdenken müssen und die hat etwas von einer mittelalterlichen Hexenjagd an sich. Man droht mit den unaufhaltsamen Entwicklungen der künstlichen Intelligenz. Den Menschen wird die Angst gemacht, die Maschinen würden schon sehr bald ihr Leben dirigieren. Gleichzeitig verführt man die Leute, sich scheinbar bequemen Funktionen á la „Siri“ oder „Alexa“ hinzugeben und sich so eine schöne neue Welt zu schaffen. Letztlich malt man, halb göttlich – halb dämonisch, die Vorstellung einer selbständig lernenden künstlichen Intelligenz ans Firmament, die es nur mit Hilfe immer neuerer Technologie zu beherrschen gälte. So begründet man wieder die Notwendigkeit für neue kurze Produktzyklen.

Eine einfache Erkenntnis und richtige Aussage wird von der IT-Branch seit
Jahrzehnten für eine falsche Marketingstrategie missbraucht
Gordon_Moore_2004
(Quelle: wikipedia, CCL, Urheber: Science History Institute)
Doch man kann sich beruhigt zurück lehnen. Die alles sehende, beherrschende und entscheidende Künstliche Intelligenz gibt es nicht und sie wird auch nicht kommen. Die Maschinen waren schon immer blöde, sie sind blöde und sie werden auch blöde bleiben. Das hat einen einfachen physikalischen Grund: Alle elektronischen Rechner kennen nämlich nur zwei physikalische Zustände, „Strom an – Strom aus“. In allen Programmiersprachen nennt man das „0“ und „1“, oder das „binäre System“. Daran wird sich auf absehbare Zeit nichts ändern. Da man ausschließlich alle Rechenvorgänge auf diesen simplen Zustand zurückführen muss, können auch alle Funktionen nie mehr als immer nur auf dieses „An-Aus“ oder „Ja-Nein“ zurückgeführt werden. Es ist die extremste aller denkbaren Simplifizierungen.

Deshalb braucht man keine Angst vor künstlicher Intelligenz zu haben. Die gibt es nicht und wird es nicht geben. Was ein Computer macht, kann nur so gut sein, wie sein Programmierer ist und vor allem, der Computer kann nicht wirklich selbst lernen. KI kann nur Informationen im Rahmen ihrer Programmierung bündeln und neu auswerten. KI gewichtet anhand von Rechenformeln (Algorithmen) Informationen immer wieder neu und zieht, ebenfalls nach vorher einprogrammierten Regeln, daraus unter Umständen neue Schlüsse. Bei Laien kommt es dann so an, als wäre da ein intelligentes lernfähiges System, welches irgendwann einmal so komplex sein könnte, dass es ein eigenes Bewusstsein entwickle.

Binärcode: "An - Aus" "0 - 1" "Ja - Nein" mehr ist nicht drin
 (Quelle: wikipedia, gemeinfrei, Urheber: VÖRBY)
Doch die Fähigkeit des menschlichen Gehirns, Informationen immer wieder neu in ihrer Gesamtheit zusammen zu fassen und zu interpretieren, besitzt die KI nicht. Die natürliche Intelligenz des Menschen braucht nicht auf 0 & 1 zurück geführt werden. Die biologischen Mechanismen sind ungleich effektiver und vielfältiger, als es eine Maschine je könnte. Prinzipiell nimmt das Gehirn im Laufe seiner Entwicklung Eindrücke in Form von Sinneswahrnehmungen auf, kombiniert sie miteinander und legt sie nach dem Grad ihrer Bedeutung für eine Person ab. Dieses biologische System ermöglicht es dem Menschen, in seinen Gedanken ganze Universen entstehen und vergehen zu lassen. Das System ist aber auch fehleranfällig. Falsche Eindruckskombinationen können Erinnerungen entstehen lassen, die so gar nicht stattfanden. Eine fatale Angelegenheit, vor allem wenn es um Zeugenaussagen geht. Dennoch kann nur der Mensch darüber nachdenken, ob die Welt so ist, wie wir uns sie denken (Platon), oder ob wir die Welt so wahrnehmen, wie sie ist (Aristoteles). Zu einem solchen Diskurs wäre keine Maschine je in der Lage! Die natürliche Intelligenz denkt mehrdimensional und kann das sogar gleichzeitig tun. Es ist die eindimensionale Linearität des binären Systems, das der Maschinenintelligenz enge Grenzen setzt.

Deshalb klappt es bei den Computern beispielsweise auch nicht mit der Simulation der menschlichen Sprache, bzw. der korrekten Übersetzung zwischen menschlichen Sprachen. Das liegt auch an der sehr begrenzten Anzahl von "Logischen Operatoren" mit denen eine rechengestützte Maschine auskommen muss, und die sich logisch nicht vermehren lassen. Solche Operatoren sind:

größer“, „kleiner“, „größer oder gleich“, „kleiner oder gleich“, „gleich“, „ungleich“, „und“, „oder“ und „nicht“.

Mehr Logik geht im binären Rechensystem nicht. Das menschliche Gehirn kann aber eine ungleich größere Vielzahl von Fragen beantworten und Schlussfolgerungen ziehen und das auch noch gleichzeitig und mehrfach parallel. Für das binäre Rechnen bleibt es allerdings bei den oben genannten Operatoren. Ein Programmierer kann zwar diese Operatoren unendlich oft miteinander kombinieren. Es hängt aber dabei von dessen Verstand ab, ob er durch diesen Wirrwarr selbst noch durchblickt, was wegen der Komplexität immer öfter nicht mehr, oder nur unter erheblichen wirtschaftlichem Aufwand gelingt. Nachdem Daten auf der Basis der obigen Operatoren ausgewertet wurden, hat ein Programmierer nur eine Befehlsmöglichkeit: "wenn (ein bestimmtes Ergebnis erzielt wurde) dann...mache dies oder das".

Egal wieviel Schaltungen hineinpassen, Maschinen werden der  schöpferischen
Kraft des menschlichen Gehirns immer unterlegen sein
Integrierter Schaltkreis Chip
(Quelle: wikipedia, GNU-Lizenz, Urheber: Ulf Seifert (Ulfbastel at de.wikipedia))
Ein Beispiel: Ein Umgebungssensor bei einer Ampel misst die Anzahl von Autos auf eine Entfernung von 100 Metern. Die Frage ist: Wann soll auf grün geschaltet werden? Hier könnte man programmieren: Wenn Anzahl der Autos größer ist als 5, dann Ampel auf grün schalten. Man könnte jetzt die Komplexität steigern und formulieren: Befinden sich auf der Kreuzungsstraße mehr als drei Autos, dann aber nicht auf Grün umschalten. So läuft das. Nicht mehr und nicht weniger. Ich stimme Chris Boos, Chef der Firma arago, zu, man brauche keine Angst vor der KI zu haben. Angst muss man nur vor der Dummheit von Menschen haben.

Ein anderes Beispiel: Man stelle sich bei einer Übersetzung des englischen Wortes "odd" einmal vor, in wie vielen sehr unterschiedlichen Situationen es mit sehr abweichenden Wörtern ins Deutsche übersetzt werden kann. Das englische „odd“ kann im Deutschen etwa sein: seltsam, ungerade, abwegig, komisch, übrig, gelegentlich, kauzig, ungewohnt, ausgefallen, ulkig, überzählig, kurios, nicht zusammen passend und es gibt noch Dutzende andere Übersetzungsmöglichkeiten im Zusammenhang mit diesem Wort.

Für einen Computer eine schier unlösbare Aufgabe. Für eine korrekte Übersetzung müsste das Programm alle "wenn's" aus dem Textzusammenhang erkennen können, analysieren und abwägen, welcher passende deutscher Begriff zu welcher geschilderten Situation in Frage käme. Ein Computer kann aber das Bild der im Text geschilderten Information gar nicht erkennen, dafür ist er in seiner „0 und 1-Welt“ viel zu blöd. Für einen geübten menschlichen Übersetzer ist das kein Problem. Man sieht das Gesamtbild des Textes aus dem Zusammenhang und weiß sofort die korrekte Übersetzung. Eine solche menschlich Bildanalyse überfordert jedes Rechensystem. Für das menschliche Gehirn ist das ein Blick und ein Klacks. Das ist nur ein sehr geringes und einfaches Beispiel dafür, wie unendlich überlegen die Arbeitsweise des menschlichen Gehirns gegenüber einer „künstlichen Intelligenz ist“.

Es wird daher keine Bewusstsein entwickelnde Künstliche Intelligenz geben, die sich irgendwann einmal gegen die Existenzberechtigung der Menschheit entscheiden könnte. Letzte schöpferische Instanz für die Maschinen wird der Mensch bleiben. Allerdings besteht gesellschaftlich durchaus die Gefahr, dass sich die Menschen in zwei Gruppen aufteilen werden: Solche, die sich von den scheinbaren Segnungen einer Technologie in einer Art "Zeitalter der Muse" ihre Auseinandersetzungen mit den Herausforderungen des Lebens und des Alltags weg verbequemisieren lassen. Dann Jenen, die die Parameter für die Lebenstaktung der Menschenmassen anonym und im Verborgenen bestimmen und daraus ihren Nutzen ziehen werden.

Der Wust der Blockchain
Viele IT-Menschen haben bereits versucht zu erklären, was denn nun eine Blockchain sei (engl.: „block“ im Deutschen eher immer Sinne eines Schreibblocks, als eines Betonklotzes und engl.: „chain“ für deutsch: „Kette“.) Man sollte sich eine Blockchain am besten als eine Art Klopapierrolle vorstellen, mit vielen mehr oder weniger fest aneinander verbundener Einzelblätter.

Wozu ist eine solche virtuelle Klopapierrolle dann überhaupt gut, wenn nicht zu ihrem ureigensten körperlichen Zweck? Nehmen wir einmal an, ein Verbraucher kauft ein größeres Möbel, dass ihm nach 12 Wochen nach Hause geliefert werden soll. Das geht üblicherweise so: Man geht in Möbelgeschäft und sucht sich ein Stück aus. Dann wird ein Kaufvertrag unterschrieben. Der beinhaltet, was gekauft wird, wann es geliefert werden sollte, wer es aufbaut, und wer wieviel an wen bei welcher Bankverbindung zu zahlen hat. Unterschrieben werden dann ein Menge Papiere. Der eigentliche Kaufvertrag. Die Kenntnisnahme der Allgemeinen Geschäftsbedingungen. Ein Widerrufsrecht. Eine Datenschutzerklärung u.v.a.m. Wie wollen das Beispiel nicht mit einer Finanzierung verkomplizieren, sondern gehen von einer Anzahlung aus und einer Endabrechnung. Dann gibt der Kunde entweder seiner Bank einen Zahlungsauftrag, oder er läßt den Möbelhändler per Lastschrift die Anzahlung von seinem Konto einziehen. Der Möbelhändler schickt an den Hersteller einen Produktionsauftrag. Ist das Möbel fertig gestellt, wird eine Spedition mit der Anlieferung beauftrag. Ein Schreiner soll die Montage machen. Zwischendurch zahlt der Kunde den Restbetrag an den Händler. Der Händler bezahlt den Produzenten, den Spediteur und den Schreiner.

In der bisherigen Welt entstehen aus diesem Beispiel mindestens 12 Dokumente, darunter allein 5 Zahlungsaufträge. Aus Vereinfachungsgründen ersparen wir uns hier allerlei Rückmeldungen, etwa Ablieferquittungen, Arbeitsbescheinigungen u.ä. In der Blockchainwelt darf man sich den gleichen Vorgang so vorstellen: Als virtueller Datensatz werden auf den ersten Blättern der Klopapierrolle der Kaufvertrag mit den diversen Nebenabsprachen geschrieben. Dann fügen sich, Blatt für Blatt, die weiteren Daten hinzu. Etwa die Zahlung. Die läuft aber nicht so ab, dass der Kunden seine Bank separat beauftrag eine Überweisung zu machen. Vielmehr geht die virtuelle Klopapierrolle an die Bank des Kunden und schreibt in deren Büchern die Kontobelastung des Kunden und gleichzeitig in den Büchern der Bank des Händlers die Gutschrift für diesen hinein. So geht es mit jedem Informationsteil weiter. Von der Produktion, über die Auslieferung bis zur Montage und den damit verbundenen Zahlungen. Die virtuelle Klopapierrolle wird also nicht abgerollt, sondern aufgerollt und damit immer dicker. Man kann das dann beliebig erweitern, etwa zur Bilanzerstellung oder Steuererklärungen, was auch immer.

Was soll der Vorteil gegenüber der heutigen Vorgehensweise sein? Zunächst wird argumentiert, alle geschäftsbezogenen Informationen lägen immer in einem Datensatz zusammen. Damit würde man sich viele Mehrfachbearbeitungen ersparen. Man denke dabei nur an die ständig wieder neu zu schreibenden Namen, Adressen oder Zahlungsinformationen. Dadurch könnten auch massiv mögliche Fehlerquellen vermieden werden. Hier sei wieder an die bereits erörterte Stammdatenproblematik erinnert.

Sieht so der Zahlungsverkehr künftig in der Blockchain aus?
(Quelle: wikipedia, GNU-Lizenz, Urheber: Ewkaa)
Eines der Hauptargumente der Blockchain-Befürworter aber ist die Datensicherheit. An dieser Stelle wird es dann richtig fragwürdig. Man geht davon aus, ausser den in der Blockchain ausdrücklich als Berechtigte genannten Personen, könnte niemand anders in diesen virtuellen Datensatz Einblick nehmen. Doch mit nichts hat die IT-Industrie ihre dauerhafte Fehlerhaftigkeit besser unter Beweis gestellt, als mit der mangelhaften Datensicherheit. Schon lange vor der Erfindung von virtuellen Daten ist bereits jede Sicherheitsmaßnahme für den geheimen Informationsaustausch früher oder später geknackt worden. Ob es sich um Verstecke, Schließmechanismen oder Verschlüsselungen handelt, nichts hat dem Willen des menschlichen Gehirns, sich solche geschützten Informationen zugänglich zu machen, bislang standgehalten. Das gilt sowohl für die reale Welt und ist auch in den zurückliegenden Jahrzehnten in der virtuellen Welt immer so gewesen. Und es wird so bleiben. Daran werden auch Quantencomputer nichts ändern. Glauben wirklich einige Wissenschaftler quantenverschlüsselte Daten seien nicht knackbar? Wie naiv ist das denn? Früher oder später wird eine geniales Menschengehirn, aber ganz bestimmt keine Künstliche Intelligenz, auf eine Idee kommen, wie man quantenverschlüsselte Informationen mit einem anderen quantentechnologischen Instrument entschlüsseln kann. Geben wir uns also nicht der Illusion hin, die in einer Blockchain gespeicherten Informationen seien sicherer als andere. Datensicherheit ist kein Argument für die Blockchain. Es ist aber auch kein Grund für oder gegen virtuelle Daten überhaupt!

Ein weiteres wesentliches Argument, dass von den Befürwortern der Blockchain herangeführt wird, ist die Qualität der Stammdaten. Da jeder Teilnehmer an einem Geschäft selbst seine Stammdaten in die Blockchain schreibt, geht man davon aus, dass diese allesamt per se richtig sein müssen. Das ist theoretisch nicht abzustreiten. Doch können im Lauf der Zeit sehr schnell einige Prinzipien der Stammdatenpflege verletzt werden, insbesondere die Aktualität. Wenn wir bei unserem Beispiel mit dem Möbelkauf bleiben, braucht ein Kunde zwischen dem Zeitpunkt der Anzahlung und der Endabrechnung nur seine Bankverbindung ändern und schon ist es mit der aktuellen Datenqualität vorbei.

Die Enigma. Einst geniale Verschlüsselungs-
maschine der Nationalsozialisten.
Es waren Menschen, die eine Möglichkeit
fanden, die Unknackbare zu knacken
(Quelle: wikipedia, CCL, Urheber: William Warby)
Die wichtigste Voraussetzung für eine Anwendung der Blockchain in der Praxis wird aber die Standardisierung der Informationen und der Systeme aller Beteiligten an einem Geschäftsvorgang sein. Doch allein die Annahme, dass in einer wettbewerbsorientierten Welt sich künftig alle Hersteller, Zulieferer und Anwender von Blockchains an einen weltweit gleichermaßen gültigen Standard halten würden, ist absolut realitätsfern. Zwar wäre dies unter allen ökonomischen und ökologischen Ressourcenaspekten ein durchaus wünschenswerter Zustand. Doch wird es diesen so einfach nicht geben, weil er schlicht wider die menschliche Natur ist. Immer muss Irgendeiner, unabgestimmt mit allen Anderen, irgendwas anders oder neu oder scheinbar besser machen.

Schließlich gibt es noch ein weiteres Argument, dass gegen die Anwendung der Blockchain heran geführt werden muss. Es ist Spezieller, gleichwohl betrifft es aber jeden Menschen. Es geht um die Steuerung der Geldliquidität. Würde man die Blockchain, wie in unserem Beispiel beschrieben, zum Funktionieren bringen, dann würden alle Zahlungsvorgänge ohne weiters Zutun von Banken ablaufen. Damit verlören aber die Banken die Kontrolle über ihre Geldliquidität und damit die Kontrolle über ihre Zahlungsfähigkeit. Wenn das eintreten würde, hätten aber die Zentralbanken keinerlei Kontrolle mehr über die umfließende Geldmenge. Sie könnten weder etwa eine Inflation erkennen, noch etwas dagegen unternehmen, da ihnen die entsprechenden Steuerungsinstrumente abhanden gekommen wären.

Blockchain-Enthusiasten träumen sogar davon, die Banken- und Finanzwelt überfüssig zu machen. Richtig zu Ende gedacht, bedeutet also die Einführung einer funktionierenden Blockchainwelt die gleichzeitige Abschaffung des Geldes in der Form wie wir es heute kennen. Bislang aber hat keiner der Befürworter der Blockchain auch nur ansatzweise einen Vorschlag gemacht, wie man sich Geschäfte in einer geldlosen Welt vorstellen sollte. Geld ist ursprünglich entstanden, um ein einfaches Instrument zu haben, mit dem man den ständigen komplexen Warenaustausch nachvollziehbar und schnell vornehmen kann. Nur wenn die Blockchain für diese ursprünglichste aller Geldfunktionen einen adäquaten Ersatz anböte, könnte ihr der Durchbruch gelingen. Geld aber gibt es in seiner Funktion seit Jahrtausenden der Menschheitsgeschichte. Es ist mehr als verwegen anzunehmen, ausgerechnet eine Reihe von IT-Entwicklern könnten daran in kurzer Zeit etwas fundamental ändern.

Bei aller Bereitschaft sich auf neue Dinge einzustellen, bleibt die Wahrheit: Alle Erfolge der über siebentausendjährigen Kulturgeschichte der Menschheit sind allein durch die natürliche Intelligenz der Menschen erreicht worden. Das menschliche Gehirn zeigt uns die Möglichkeiten und die Grenzen menschlicher Schöpfungskraft auf. Alles was je von Menschen geschaffen worden ist und künftig geschaffen werden wird, muss sich zwangsläufig an diese Grenzen halten. Den Mensch übertrumpfen, kann von Menschen künstlich Geschaffenes jedenfalls nicht. So wie der Mensch niemals die göttliche Schöpfung wird übertrumpfen können!

Kommentare

Beliebte Posts aus diesem Blog

Die Herrschaft der Minderheiten - Ein Essay von Thomas Seidel-

Erneute Verschleierung durch die SPD: Das Ende der Fallpauschale im deutschen Gesundheitswesen -von Thomas Seidel-

Südlich der Alpen* - Ein Reisebericht - von Thomas Seidel