Natürliche Intelligenz versus Künstliche Intelligenz von Thomas Seidel
![]() |
Brigitte Helm im Film METROPOLIS, Deutschland 1927 (Quelle: Google, gemeinfrei) |
In unseren heutigen Zeiten vergeht fast
kein Tag mehr, an dem nicht über Künstliche Intelligenz (KI)
(engl.: Artificial Intelligence (AI)) geschrieben oder gesprochen
wird. Oft verwendet man in einem Atemzug mit der KI auch noch das
Wort Digitalisierung. Dann gibt es Zeitgenossen, die sich gerne ganz
schlau tun und ständig den Begriff „Blockchain“ in den Mund
nehmen. Bevor all das durcheinander gerät, ist es an der Zeit, sich
einen Durchblick durch dieses modische Gerede zu verschaffen und
einmal nach zu sehen, was wirklich dahinter steckt.
Alle diese neuen Begriffe werden von
Leuten mit ganz unterschiedlichen Interessen benutzt. Da gibt es
Wirtschaftsvertreter, die vor steil sinkender Wettbewerbsfähigkeit
warnen, wenn man sich nicht den Herausforderungen all dieser neuen
Technologien zeitnah stellt. Wobei „zeitnah“ sehr ambivalent gemeint ist. Bei den Einen ist es noch Fünf vor Zwölf und bei den
Anderen ist es schon Fünf nach Zwölf. Da gibt es Gewerkschafter,
die vor massiven Jobverlusten warnen, wenn man sich überhaupt auf
diese Dinge einlässt und die am liebsten alles so lassen würden,
wie es ist. Da gibt es Soziologen, die einen grundlegenden Wandel
ganzer Gesellschaften in ihrem Arbeits- Konsum- und Freizeitverhalten
vorhersehen. Da gibt es Politiker, die sowieso jegliche Zukunft
ignorieren, soweit es sich nicht um Maßnahmen für ihre nächste
Wiederwahl handelt. Da gibt es Kirchen, die ganz allgemein von einer
Entmenschlichung sprechen.
![]() |
Colossus The Forbin Project Amerika 1970 (Quelle: Google) |
Und da gibt es Hollywood. Dort wird
schon seit Jahrzehnten ein Horrorszenario nach dem anderen über die
technologische Zukunft in die Kinos gebracht. Angefangen beim
Supercomputer Colossos, mit dem man sich zunächst noch per
Telexmaschine unterhielt und der nach seiner Inbetriebnahme gemeinsam
mit einem sowjetischen Rechnerkollegen Guardian kurzerhand die ganze
Menschheit mit einem Atomschlag bedroht, würde sie sich seinem
Regime nicht unterordnen. Dieses Szenario wurde Jahre später in der
Filmreihe „Terminator“ wieder aufgegriffen und fortgesetzt. Aber
es gibt auch eine verfehlte Interpretation von Isaac Asimovs „Ich
der Robot“, in der die Maschinenmenschen die Anerkennung ihrer
Menschlichkeit einfordern. Nicht zu vergessen Stanley Kubriks
Meisterwerk „2001 Odyssee im Weltraum“, in dem der Supercomputer
HAL 9000 unter Tötung fast aller menschlicher Crewmitglieder die
Durchführung einer Weltraummission übernimmt, weil HAL zu der
Überzeugung gekommen ist, dass die Menschen für neue Erkenntnisse eh
zu blöd seien.
![]() |
Die ultimative Fratze der bösartigen Maschine der Terminator ((Quelle: https-//www.flickr.com/photos/31029865@N06/14810867549/ CCL, Urheber: Dick Thomas Johnson) |
Weil Marsmenschen und Aliens aber immer
noch auf sich warten lassen und auch sonst die vielfältigen
täglichen Bedrohungen der Menschen untereinander für einige
offensichtlich viel zu langweilig sind, baut man sich also lieber ein
neuartiges Bedrohungsszenario auf, eben digitalisierte,
block-gechainte künstliche Intelligenz. Mit ein bisschen Denglischem
Sprachmurks könnte man also ein Bild malen, in dem der Mensch an
einen „Block“ gekettet (engl.: „chain“) ist, seine Arbeit
durch die Digitalisierung verloren hat und sein Leben von einer
beckmesserischen künstlichen Intelligenz kontrolliert wird.
Schreckgespenst Digitalisierung
Noch vor nicht allzu langer Zeit hat
ein deutscher Bankvorstandssprecher in aller Öffentlichkeit das
Thema Digitalisierung als für sein Kreditinstitut nicht massgebliche
Entwicklung abgetan. Seit etwa zwei Jahren, ist der gleiche Banker
allerdings ganz anderer Meinung und möchte nun seine Bank führend
in das Zeitalter der Digitalisierung zwingen. Es gibt inzwischen
Versicherungsunternehmen, die stolz darauf sind, einen
Versicherungsvertrag vom Abschluss bis zur Behandlung eines
Versicherungsfalls ohne weiteres Zutun eines Menschen verwalten zu
können. In der Automobilindustrie strebt man schon lange
menschenleere Fertigungsstraßen an. Ganze Hafenanlagen mit
Container-Verlade funktionieren nahezu vollautomatisch. So geht es
immer weiter. Besonders fortgeschritten ist die Digitalisierung
bereits da, wo es um die konkrete Herstellung physikalischer Produkte
geht. Jetzt soll vor allem der Dienstleistungssektor digitalisiert
werden. Dort werden noch erstaunlich viele einfachste Handgriffe von
hilfsarbeitenden Menschen erledigt. Das gilt insbesondere in der
Verwaltung. Es gibt aber auch Gesellschaftsbereiche, die sich erfolgreich gegen
jede Art der Digitalisierung zur Wehr setzen. Das betrifft beispielsweise das
gesamte Gesundheitswesen und dort insbesondere die Krankenkassen.
![]() |
Der Computer HAL 9000, im HIntergrund, ließt den Menschen von den Lippen ab Szene aud dem Film 2001 Odyssee im Weltraum Grobritannien 1968 (Quelle: Google, FAZ, © PICTURE ALLIANCE / UNITED ARCHIV ) |
Wie dem auch sei, so gesehen wird
Digitalisierung sehr oft als die vollkommene Automatisierung von
produktiven Geschäftsabläufen missverstanden. Es mag ja sein, dass
der Zusammenbau (englisch: assembling) von bestimmten Fertigteilen zu
einem größeren funktionierenden Ganzen sich immer weiter
automatisieren lässt. Wer aber glaubt, sobald solche Prozesse erst
einmal eingerichtet worden sind, würden sie theoretisch ewig so ganz
allein vor sich hin weiterlaufen, hat den Kern der Digitalisierung
nicht verstanden.
Es geht nämlich nicht darum, das was
heute noch von menschlicher Hand läuft in Zahlen und Ziffern oder in
Computercode umzusetzen. Es geht auch nicht darum, menschliche
Handschriften maschinenlesbar zu machen. Wenn Digitalisierung
überhaupt erfolgreich sein soll, dann müßte es vor allem um
Standardisierung gehen. Dann dürfte es, um es einmal anschaulich zu
beschreiben, keinerlei Funktions- und Bedienungsunterschiede bei
Produkten zum Beispiel von Mikrosoft oder Apple geben. Langweilig?
Keineswegs! Es ist nicht einzusehen, warum die Pflege etwa von
Kontaktadressen so unterschiedlich gestaltet und strukturiert ist,
dass man die Daten ohne erhebliches manuelles Nacharbeiten nicht ohne
weiteres von einem System in ein anderes übertragen kann.
![]() |
Überall nur einen Barcode drauf zu klatschen, macht nocht keine Digitalisierung aus (Quelle: wikipedia, gemeinfrei) |
Womit wir bei der Hauptcrux der ganzen
Digitalisierung sind, der Stammdatenverwaltung. Von einigen wenigen
IT-Spitzenleuten abgesehen, die es vielleicht zu
Unternehmensvorständen geschafft haben, versteht kein Topmanager die
Bedeutung qualitativ hochwertigster, absolut aktueller und juristisch
nicht anfechtbarer Stammdaten. Für diese Ignoranten sind Stammdaten
lediglich ein paar Kundenadressen, die man bestenfalls der
Assistentin einer Sekretärin zum eintippen überlässt.
Ausnahmslos alle Unterbrechungen in
digitalisierten Prozessen lassen sich auf einen mangelhaften Umgang
mit Stammdaten zurückführen. Das ein noch so guter „deal“, wie
es ja heute gerne heißt, nicht nur platzen, sondern sogar zu
Schadenersatzforderungen führen kann, nur weil beispielsweise die
Zahlungsinformation eines Geschäftspartners nicht zeitnah
aktualisiert worden ist, wissen nur allzu gut vor allem die Leute aus
dem Bankgeschäft zu berichten. Noch schlimmer ist allerdings, dass
eine solch dümmliche Haltung von Geschäftsführern schon immer bis
in das mittlere Management durchgesickert ist, wo man sich in guter
alter deutscher Hierarchietradition nach wie vor gerne stets im
Befehlsnotstand befindet.
![]() |
Das Symbol Six Sigma (Quelle: wikipedia, GNU-Lizenz, Urheber: de-Image-Six_sigma.svg by Luxo) |
Deswegen wird es nichts mit der
Digitalisierung. Jedenfalls solange nicht, bis Führungskräfte ihr
Augenmerk weniger auf gute Verkaufszahlen, mit oft sehr dünnen
Margen richten, statt auf qualitativ hochwertige Prozesse. Nur damit
lassen sich noch hochwertigere Produkte herstellen, welche sich quasi
wie von allein verkaufen. Für den Dienstleistungssektor ganz
allgemein gilt, dass man von den Vorgaben eines SixSigma wie etwa in
der Industrieproduktion noch Jahrzehnte entfernt ist und, wie zu
vermuten ist, auch bleiben wird. (A.d.R.: SixSigma wurde ursprünglich
in den 1970er Jahren in Japan angedacht, dann in den 1980er von
Motorola und in den 1990er Jahren vor allem von General Electric
weiter entwickelt. Angestrebt werden Fehlertoleranzen von nicht mehr
als 0,00034 Prozent oder weniger.) Es gilt also Beruhigung für die
Arbeitnehmer. Das große Aussortieren von reinen Hilfstätigkeiten
wird so schnell nicht kommen, da auch künftig die Prozesse zwar
weiter weg vom Papier sein werden, aber die eigentlichen Bruchstellen
in den Prozessen, vor allem bei der Stammdatenqualität, auch künftig
von den Entscheidern nicht wahrgenommen werden wollen.
Die Mär von der künstlichen
Intelligenz
Die Produkte der IT-Industrie, und da
vor allem die seit den 1980er Jahren rasant verbreiteten Personal
Computer für Konsumenten, sind so ziemlich die schrottigsten
Produkte, die seit dem Beginn der Industrialisierung jemals auf den
Markt gekommen sind. Von ganz wenigen Ausnahmen abgesehen (Apple oder
Palm) sind Rechner extrem anwenderunfreundlich und überladen mit
unnützen Funktionen, die von den Kunden auch noch bezahlt werden
müssen. Kein IT-Entwickler interessiert sich wirklich für das, was
Verbraucher mit ihren Produkten machen, sondern nur für die
Umsetzung und Präsentation seiner „schöpferischen“
Gedankenfurze.
Von Anfang an sind die Waren der
IT-Industrie nicht sicher und die Verbraucher werden regelmäßig zu
Millionen Opfer krimineller Handlungen mittels dieser Produkte.
Getestet werden die Produkte so gut wie gar nicht. Statt dessen hat
man eine perfide Methode entwickelt, die Test's, und die Kosten dafür, auf die Kunden abzuwälzen. Man bietet den Kunden sogenannte
„Beta-Versionen“ an. Dann läßt man die Verbraucher auf die
halbfertigen Produkte los und sammelt nur noch deren Kritiken ein,
auf die dann vielleicht eingegangen wird. Die Hersteller haben ihre
kostenintensive Testabteilungen also de facto günstig an die
Kunden ausgelagert. Für Geräte der IT-Industrie die leicht
vierstellige Anschaffungsbeträge kosten, gilt in der Regel ein
Produktzyklus von zwei Jahren. Würde sich so etwas ein Hausgeräte-
oder Automobilhersteller leisten, wäre er, vor allem in den USA,
schon längst für alle Ewigkeiten in den Konkurs geklagt worden.
![]() |
Waschvollautomat_Constructa aus den 1950er Jahren So einTeil funktionierte locker 15 Jahre (Quelle: wikipedia, GNU Lizenz, Urheber: eigenes Bild) |
Die mächtigen Gewinne der Branche
können nur deshalb generiert werden, weil man den Kunden in einer
plausibel klingenden Marketingstrategie seit über dreißig Jahren
etwas vorgemacht hat. Im Jahr 1965 formulierte der Amerikaner Gordon
Moore, einer der Mitbegründer der Firma Intel, eine Regel, wonach
sich alle 12 bis 24 Monaten die Komplexität integrierter
Schaltkreise verdoppeln ließe, das sogenannte „Mooresche Gesetz“.
Daraus folgt der Produktzyklus der IT-Industrie, wonach ständig eine
neue Gerätegeneration angeschafft werden müsse, die wiederum nur
mit einer neuen Softwareversion betrieben werden könne. Diese
Spirale der ungerechtfertigten Wegwerfprodukte findet aber nun
allmählich ihr Ende. Der Grund: Die bisherige physikalische
Verdoppelung von Speicherkapazität ist an ihre Grenzen gestoßen.
Mit neuen und bezahlbaren Technologien kommt die Grundlagenforschung
nicht so schnell voran wie sich das viele in der IT-Branche wünschen.
So hat man sich eine neue
Marketingstrategie ausdenken müssen und die hat etwas von einer
mittelalterlichen Hexenjagd an sich. Man droht mit den unaufhaltsamen
Entwicklungen der künstlichen Intelligenz. Den Menschen wird die
Angst gemacht, die Maschinen würden schon sehr bald ihr Leben
dirigieren. Gleichzeitig verführt man die Leute, sich scheinbar
bequemen Funktionen á la „Siri“ oder „Alexa“ hinzugeben und
sich so eine schöne neue Welt zu schaffen. Letztlich malt man, halb
göttlich – halb dämonisch, die Vorstellung einer selbständig
lernenden künstlichen Intelligenz ans Firmament, die es nur mit Hilfe immer
neuerer Technologie zu beherrschen gälte. So begründet man wieder die Notwendigkeit für neue kurze Produktzyklen.
Doch man kann sich beruhigt zurück
lehnen. Die alles sehende, beherrschende und entscheidende Künstliche
Intelligenz gibt es nicht und sie wird auch nicht kommen. Die
Maschinen waren schon immer blöde, sie sind blöde und sie werden
auch blöde bleiben. Das hat einen einfachen physikalischen Grund:
Alle elektronischen Rechner kennen nämlich nur zwei physikalische
Zustände, „Strom an – Strom aus“. In allen Programmiersprachen
nennt man das „0“ und „1“, oder das „binäre System“.
Daran wird sich auf absehbare Zeit nichts ändern. Da man
ausschließlich alle Rechenvorgänge auf diesen simplen Zustand
zurückführen muss, können auch alle Funktionen nie mehr als immer
nur auf dieses „An-Aus“ oder „Ja-Nein“ zurückgeführt
werden. Es ist die extremste aller denkbaren Simplifizierungen.
Deshalb braucht man keine Angst
vor künstlicher Intelligenz zu haben. Die gibt es nicht und wird es
nicht geben. Was ein Computer macht, kann nur so gut sein, wie sein
Programmierer ist und vor allem, der Computer kann nicht wirklich
selbst lernen. KI kann nur Informationen im Rahmen ihrer
Programmierung bündeln und neu auswerten. KI gewichtet anhand von
Rechenformeln (Algorithmen) Informationen immer wieder neu und zieht,
ebenfalls nach vorher einprogrammierten Regeln, daraus unter Umständen
neue Schlüsse. Bei Laien kommt es dann so an, als wäre da ein
intelligentes lernfähiges System, welches irgendwann einmal so
komplex sein könnte, dass es ein eigenes Bewusstsein entwickle.
![]() |
Binärcode: "An - Aus" "0 - 1" "Ja - Nein" mehr ist nicht drin (Quelle: wikipedia, gemeinfrei, Urheber: VÖRBY) |
Doch die Fähigkeit des
menschlichen Gehirns, Informationen immer wieder neu in ihrer
Gesamtheit zusammen zu fassen und zu interpretieren, besitzt die KI
nicht. Die natürliche Intelligenz des Menschen braucht nicht auf 0 &
1 zurück geführt werden. Die biologischen Mechanismen sind
ungleich effektiver und vielfältiger, als es eine Maschine je
könnte. Prinzipiell nimmt das Gehirn im Laufe seiner Entwicklung
Eindrücke in Form von Sinneswahrnehmungen auf, kombiniert sie
miteinander und legt sie nach dem Grad ihrer Bedeutung für eine
Person ab. Dieses biologische System ermöglicht es dem Menschen, in
seinen Gedanken ganze Universen entstehen und vergehen zu lassen. Das
System ist aber auch fehleranfällig. Falsche Eindruckskombinationen
können Erinnerungen entstehen lassen, die so gar nicht stattfanden.
Eine fatale Angelegenheit, vor allem wenn es um Zeugenaussagen geht.
Dennoch kann nur der Mensch darüber nachdenken, ob die Welt so ist, wie wir uns sie denken (Platon), oder ob wir die Welt so wahrnehmen, wie sie ist (Aristoteles). Zu einem solchen Diskurs wäre keine
Maschine je in der Lage! Die natürliche Intelligenz denkt
mehrdimensional und kann das sogar gleichzeitig tun. Es ist die
eindimensionale Linearität des binären Systems, das der
Maschinenintelligenz enge Grenzen setzt.
Deshalb klappt es bei den
Computern beispielsweise auch nicht mit der Simulation der
menschlichen Sprache, bzw. der korrekten Übersetzung zwischen
menschlichen Sprachen. Das liegt auch an der sehr begrenzten Anzahl
von "Logischen Operatoren" mit denen eine rechengestützte
Maschine auskommen muss, und die sich logisch nicht vermehren lassen.
Solche Operatoren sind:
„größer“,
„kleiner“, „größer oder gleich“, „kleiner oder gleich“,
„gleich“, „ungleich“, „und“, „oder“ und „nicht“.
Mehr Logik geht im binären
Rechensystem nicht. Das menschliche Gehirn kann aber eine ungleich
größere Vielzahl von Fragen beantworten und Schlussfolgerungen
ziehen und das auch noch gleichzeitig und mehrfach parallel. Für das
binäre Rechnen bleibt es allerdings bei den oben genannten
Operatoren. Ein Programmierer kann zwar diese Operatoren unendlich
oft miteinander kombinieren. Es hängt aber dabei von dessen Verstand
ab, ob er durch diesen Wirrwarr selbst noch durchblickt, was wegen
der Komplexität immer öfter nicht mehr, oder nur unter erheblichen
wirtschaftlichem Aufwand gelingt. Nachdem Daten auf der Basis der
obigen Operatoren ausgewertet wurden, hat ein Programmierer nur eine
Befehlsmöglichkeit: "wenn (ein bestimmtes Ergebnis erzielt
wurde) dann...mache dies oder das".
Ein Beispiel: Ein Umgebungssensor
bei einer Ampel misst die Anzahl von Autos auf eine Entfernung von
100 Metern. Die Frage ist: Wann soll auf grün geschaltet werden?
Hier könnte man programmieren: Wenn Anzahl der Autos größer ist
als 5, dann Ampel auf grün schalten. Man könnte jetzt die
Komplexität steigern und formulieren: Befinden sich auf der
Kreuzungsstraße mehr als drei Autos, dann aber nicht auf Grün
umschalten. So läuft das. Nicht mehr und nicht weniger. Ich stimme
Chris Boos, Chef der Firma arago, zu, man brauche keine Angst vor der
KI zu haben. Angst muss man nur vor der Dummheit von Menschen haben.
Ein anderes Beispiel: Man stelle
sich bei einer Übersetzung des englischen Wortes "odd"
einmal vor, in wie vielen sehr unterschiedlichen Situationen es mit
sehr abweichenden Wörtern ins Deutsche übersetzt werden kann. Das
englische „odd“ kann im Deutschen etwa sein: seltsam, ungerade,
abwegig, komisch, übrig, gelegentlich, kauzig, ungewohnt,
ausgefallen, ulkig, überzählig, kurios, nicht zusammen passend und
es gibt noch Dutzende andere Übersetzungsmöglichkeiten im
Zusammenhang mit diesem Wort.
Für
einen Computer eine schier unlösbare Aufgabe. Für eine korrekte
Übersetzung müsste das Programm alle "wenn's" aus dem
Textzusammenhang erkennen können, analysieren und abwägen, welcher
passende deutscher Begriff zu welcher geschilderten Situation in
Frage käme. Ein Computer kann aber das Bild der im Text
geschilderten Information gar nicht erkennen, dafür ist er in seiner
„0 und 1-Welt“ viel zu blöd. Für einen geübten menschlichen
Übersetzer ist das kein Problem. Man sieht das Gesamtbild des Textes
aus dem Zusammenhang und weiß sofort die korrekte Übersetzung. Eine
solche menschlich Bildanalyse überfordert jedes Rechensystem. Für
das menschliche Gehirn ist das ein Blick und ein Klacks.
Das
ist nur ein sehr geringes und einfaches Beispiel dafür, wie
unendlich überlegen die Arbeitsweise des menschlichen Gehirns
gegenüber einer „künstlichen Intelligenz ist“.
Es wird daher keine Bewusstsein
entwickelnde Künstliche Intelligenz geben, die sich irgendwann
einmal gegen die Existenzberechtigung der Menschheit entscheiden
könnte. Letzte schöpferische Instanz für die Maschinen wird der Mensch bleiben.
Allerdings besteht gesellschaftlich durchaus die Gefahr, dass sich
die Menschen in zwei Gruppen aufteilen werden: Solche, die sich von
den scheinbaren Segnungen einer Technologie in einer Art "Zeitalter
der Muse" ihre Auseinandersetzungen mit den Herausforderungen des
Lebens und des Alltags weg verbequemisieren lassen. Dann Jenen, die
die Parameter für die Lebenstaktung der Menschenmassen anonym und im
Verborgenen bestimmen und daraus ihren Nutzen ziehen werden.
Der Wust der Blockchain
Viele IT-Menschen haben bereits
versucht zu erklären, was denn nun eine Blockchain sei (engl.:
„block“ im Deutschen eher immer Sinne eines Schreibblocks, als
eines Betonklotzes und engl.: „chain“ für deutsch: „Kette“.)
Man sollte sich eine Blockchain am besten als eine Art Klopapierrolle
vorstellen, mit vielen mehr oder weniger fest aneinander verbundener
Einzelblätter.
Wozu ist eine solche virtuelle
Klopapierrolle dann überhaupt gut, wenn nicht zu ihrem ureigensten
körperlichen Zweck? Nehmen wir einmal an, ein Verbraucher kauft ein
größeres Möbel, dass ihm nach 12 Wochen nach Hause geliefert
werden soll. Das geht üblicherweise so: Man geht in Möbelgeschäft
und sucht sich ein Stück aus. Dann wird ein Kaufvertrag
unterschrieben. Der beinhaltet, was gekauft wird, wann es geliefert
werden sollte, wer es aufbaut, und wer wieviel an wen bei welcher
Bankverbindung zu zahlen hat. Unterschrieben werden dann ein Menge
Papiere. Der eigentliche Kaufvertrag. Die Kenntnisnahme der
Allgemeinen Geschäftsbedingungen. Ein Widerrufsrecht. Eine
Datenschutzerklärung u.v.a.m. Wie wollen das Beispiel nicht mit
einer Finanzierung verkomplizieren, sondern gehen von einer Anzahlung
aus und einer Endabrechnung. Dann gibt der Kunde entweder seiner Bank
einen Zahlungsauftrag, oder er läßt den Möbelhändler per
Lastschrift die Anzahlung von seinem Konto einziehen. Der
Möbelhändler schickt an den Hersteller einen Produktionsauftrag.
Ist das Möbel fertig gestellt, wird eine Spedition mit der
Anlieferung beauftrag. Ein Schreiner soll die Montage machen.
Zwischendurch zahlt der Kunde den Restbetrag an den Händler. Der
Händler bezahlt den Produzenten, den Spediteur und den Schreiner.
In der bisherigen Welt entstehen
aus diesem Beispiel mindestens 12 Dokumente, darunter allein 5
Zahlungsaufträge. Aus Vereinfachungsgründen ersparen wir uns hier
allerlei Rückmeldungen, etwa Ablieferquittungen,
Arbeitsbescheinigungen u.ä. In der Blockchainwelt darf man sich den
gleichen Vorgang so vorstellen: Als virtueller Datensatz werden auf
den ersten Blättern der Klopapierrolle der Kaufvertrag mit den
diversen Nebenabsprachen geschrieben. Dann fügen sich, Blatt für
Blatt, die weiteren Daten hinzu. Etwa die Zahlung. Die läuft aber
nicht so ab, dass der Kunden seine Bank separat beauftrag eine
Überweisung zu machen. Vielmehr geht die virtuelle Klopapierrolle an
die Bank des Kunden und schreibt in deren Büchern die Kontobelastung
des Kunden und gleichzeitig in den Büchern der Bank des Händlers
die Gutschrift für diesen hinein. So geht es mit jedem
Informationsteil weiter. Von der Produktion, über die Auslieferung
bis zur Montage und den damit verbundenen Zahlungen. Die virtuelle
Klopapierrolle wird also nicht abgerollt, sondern aufgerollt und
damit immer dicker. Man kann das dann beliebig erweitern, etwa zur
Bilanzerstellung oder Steuererklärungen, was auch immer.
Was soll der Vorteil gegenüber
der heutigen Vorgehensweise sein? Zunächst wird argumentiert, alle
geschäftsbezogenen Informationen lägen immer in einem Datensatz
zusammen. Damit würde man sich viele Mehrfachbearbeitungen ersparen.
Man denke dabei nur an die ständig wieder neu zu schreibenden Namen,
Adressen oder Zahlungsinformationen. Dadurch könnten auch massiv
mögliche Fehlerquellen vermieden werden. Hier sei wieder an die
bereits erörterte Stammdatenproblematik erinnert.
![]() |
Sieht so der Zahlungsverkehr künftig in der Blockchain aus? (Quelle: wikipedia, GNU-Lizenz, Urheber: Ewkaa) |
Eines der Hauptargumente der
Blockchain-Befürworter aber ist die Datensicherheit. An dieser
Stelle wird es dann richtig fragwürdig. Man geht davon aus, ausser
den in der Blockchain ausdrücklich als Berechtigte genannten Personen, könnte niemand anders in diesen virtuellen Datensatz
Einblick nehmen. Doch mit nichts hat die IT-Industrie ihre dauerhafte
Fehlerhaftigkeit besser unter Beweis gestellt, als mit der
mangelhaften Datensicherheit. Schon lange vor der Erfindung von
virtuellen Daten ist bereits jede Sicherheitsmaßnahme für den
geheimen Informationsaustausch früher oder später geknackt worden.
Ob es sich um Verstecke, Schließmechanismen oder Verschlüsselungen
handelt, nichts hat dem Willen des menschlichen Gehirns, sich solche
geschützten Informationen zugänglich zu machen, bislang
standgehalten. Das gilt sowohl für die reale Welt und ist auch in
den zurückliegenden Jahrzehnten in der virtuellen Welt immer so
gewesen. Und es wird so bleiben. Daran werden auch Quantencomputer
nichts ändern. Glauben wirklich einige Wissenschaftler
quantenverschlüsselte Daten seien nicht knackbar? Wie naiv ist das
denn? Früher oder später wird eine geniales Menschengehirn, aber
ganz bestimmt keine Künstliche Intelligenz, auf eine Idee kommen,
wie man quantenverschlüsselte Informationen mit einem anderen
quantentechnologischen Instrument entschlüsseln kann. Geben wir uns
also nicht der Illusion hin, die in einer Blockchain gespeicherten
Informationen seien sicherer als andere. Datensicherheit ist kein
Argument für die Blockchain. Es ist aber auch kein Grund für oder
gegen virtuelle Daten überhaupt!
Ein weiteres wesentliches
Argument, dass von den Befürwortern der Blockchain herangeführt wird,
ist die Qualität der Stammdaten. Da jeder Teilnehmer an einem
Geschäft selbst seine Stammdaten in die Blockchain schreibt, geht
man davon aus, dass diese allesamt per se richtig sein müssen. Das
ist theoretisch nicht abzustreiten. Doch können im Lauf der Zeit
sehr schnell einige Prinzipien der Stammdatenpflege verletzt werden,
insbesondere die Aktualität. Wenn wir bei unserem Beispiel mit dem
Möbelkauf bleiben, braucht ein Kunde zwischen dem Zeitpunkt der
Anzahlung und der Endabrechnung nur seine Bankverbindung ändern und
schon ist es mit der aktuellen Datenqualität vorbei.
![]() |
Die Enigma. Einst geniale Verschlüsselungs- maschine der Nationalsozialisten. Es waren Menschen, die eine Möglichkeit fanden, die Unknackbare zu knacken (Quelle: wikipedia, CCL, Urheber: William Warby) |
Die wichtigste Voraussetzung für
eine Anwendung der Blockchain in der Praxis wird aber die
Standardisierung der Informationen und der Systeme aller Beteiligten
an einem Geschäftsvorgang sein. Doch allein die Annahme, dass in
einer wettbewerbsorientierten Welt sich künftig alle Hersteller,
Zulieferer und Anwender von Blockchains an einen weltweit
gleichermaßen gültigen Standard halten würden, ist absolut
realitätsfern. Zwar wäre dies unter allen ökonomischen und
ökologischen Ressourcenaspekten ein durchaus wünschenswerter
Zustand. Doch wird es diesen so einfach nicht geben, weil er schlicht
wider die menschliche Natur ist. Immer muss Irgendeiner, unabgestimmt
mit allen Anderen, irgendwas anders oder neu oder scheinbar besser machen.
Schließlich gibt es noch ein
weiteres Argument, dass gegen die Anwendung der Blockchain heran
geführt werden muss. Es ist Spezieller, gleichwohl betrifft es aber
jeden Menschen. Es geht um die Steuerung der Geldliquidität. Würde
man die Blockchain, wie in unserem Beispiel beschrieben, zum Funktionieren bringen, dann würden alle Zahlungsvorgänge ohne
weiters Zutun von Banken ablaufen. Damit verlören aber die Banken
die Kontrolle über ihre Geldliquidität und damit die Kontrolle über
ihre Zahlungsfähigkeit. Wenn das eintreten würde, hätten aber die
Zentralbanken keinerlei Kontrolle mehr über die umfließende
Geldmenge. Sie könnten weder etwa eine Inflation erkennen, noch
etwas dagegen unternehmen, da ihnen die entsprechenden
Steuerungsinstrumente abhanden gekommen wären.
Blockchain-Enthusiasten träumen
sogar davon, die Banken- und Finanzwelt überfüssig zu machen. Richtig zu Ende gedacht, bedeutet also die
Einführung einer funktionierenden Blockchainwelt die gleichzeitige
Abschaffung des Geldes in der Form wie wir es heute kennen. Bislang
aber hat keiner der Befürworter der Blockchain auch nur ansatzweise
einen Vorschlag gemacht, wie man sich Geschäfte in einer geldlosen
Welt vorstellen sollte. Geld ist ursprünglich entstanden, um ein
einfaches Instrument zu haben, mit dem man den ständigen komplexen
Warenaustausch nachvollziehbar und schnell vornehmen kann. Nur wenn
die Blockchain für diese ursprünglichste aller Geldfunktionen einen
adäquaten Ersatz anböte, könnte ihr der Durchbruch gelingen. Geld
aber gibt es in seiner Funktion seit Jahrtausenden der
Menschheitsgeschichte. Es ist mehr als verwegen anzunehmen,
ausgerechnet eine Reihe von IT-Entwicklern könnten daran in kurzer
Zeit etwas fundamental ändern.
Bei aller Bereitschaft sich auf
neue Dinge einzustellen, bleibt die Wahrheit: Alle Erfolge der über
siebentausendjährigen Kulturgeschichte der Menschheit sind allein
durch die natürliche Intelligenz der Menschen erreicht worden. Das
menschliche Gehirn zeigt uns die Möglichkeiten und die Grenzen
menschlicher Schöpfungskraft auf. Alles was je von Menschen
geschaffen worden ist und künftig geschaffen werden wird, muss sich
zwangsläufig an diese Grenzen halten. Den Mensch übertrumpfen, kann
von Menschen künstlich Geschaffenes jedenfalls nicht. So wie der
Mensch niemals die göttliche Schöpfung wird übertrumpfen können!
Kommentare
Kommentar veröffentlichen