Open the blog

This commit is contained in:
2025-10-14 19:15:51 +02:00
commit 8a2dadcd25
139 changed files with 12534 additions and 0 deletions

View File

@@ -0,0 +1,50 @@
---
layout: post
date: 2017-02-09 16:29:00
tags: Стихотворение
title: И вот лежу, и вот мне скучно…
teaser: |
<p>
И вот лежу, и вот мне скучно,<br>
плюю с презреньем в потолок.<br>
И воздух спертый, жестко, скучно.<br>
И ночь пошла на самотек.
</p>
<p>
Как за спиною, слышу шорох:<br>
беседуют отец и мать.<br>
Зима, февраль, мороз под сорок.<br>
Собачий холод! Благодать!
</p>
<p>
Потом друзей мелькают лики,<br>
друзей, и вот уж больше не друзей.<br>
Одной единственной той блики<br>
другой единственной честней.
</p>
<p>
И вот лежу, и сердце ноет,<br>
и ночь за часом час бежит.<br>
Усталость мне глаза прикроет,<br>
и сон земной обворожит.
</p>
---
И вот лежу, и вот мне скучно,\\
плюю с презреньем в потолок.\\
И воздух спертый, жестко, скучно.\\
И ночь пошла на самотек.
Как за спиною, слышу шорох:\\
беседуют отец и мать.\\
Зима, февраль, мороз под сорок.\\
Собачий холод! Благодать!
Потом друзей мелькают лики,\\
друзей, и вот уж больше не друзей.\\
Одной единственной той блики\\
другой единственной честней.
И вот лежу, и сердце ноет,\\
и ночь за часом час бежит.\\
Усталость мне глаза прикроет,\\
и сон земной обворожит.

View File

@@ -0,0 +1,294 @@
---
layout: post
date: 2017-03-15 00:00:00
tags: Aufsatz
title: Gegenständliche Erkenntnis bei Simon L. Frank
teaser:
<p>Die so für den gemeinen Menschen merkwürdige Frage nach der Sicherheit menschlicher
Erkenntnis wurde im letzten Jahrundert nicht nur durch vielfältige philosophische Spekulationen,
sondern auch durch die modernen Naturwissenschaften noch stärker verschärft,
wobei philosophische Spekulationen in gewisser Hinsicht wichtiger sind, weil, wenn die
Naturwissenschaften mit den Sinnesdaten arbeiten und die Existenz der Außenwelt einfach voraussetzen,
der Philosoph keine solche Voraussetzungen machen darf. Er steigt eine Ebene tiefer ein und fragt, ob
es überhaupt möglich ist, solche Sinnesdaten zu gewinnen.</p>
<p>Unter den zahlreichen Versuchen, dieses erkenntnistheoretische Problem zu entschlüsseln,
verdient der Lösungsweg, den Simon L. Frank beschritten hat, eine besondere Aufmerksamkeit.</p>
---
\section{Einleitung}
\epigraph{
Heiße Magister, heiße Doktor gar,\\
Und ziehe schon an die zehen Jahr'\\
Herauf, herab und quer und krumm\\
Meine Schüler an der Nase herum ---\\
Und sehe, daß wir nichts wissen können!
}{\textit{Faust I}\\Johann Wolfgang von Goethe\footcite[15]{faust}}
In der Tat, können wir etwas wissen, etwas erkennen?
Seit der Entstehung der Menschheit wunderte man sich über die Welt, die einen umgibt. Man fragte sich, wie die Umwelt
funktioniert, was hinter den natürlichen Ereignissen steht, suchte nach Gesetzmäßigkeiten und legte auf diese Weise den
ersten Grundstein für das Gebäude der Physik. Dieses Projekt war jedoch anscheinend so komplex, dass manche Philosophen
sich wenige Jahrhunderte später die Ansicht aneigneten, dass es überhaupt keine Wahrheit, sondern nur Schein und
Täuschung gebe. Durch Grübelei und Diskutieren gelangte man schließlich zum Zentrum seines Daseins, zu seinem Selbst,
und stellte sich nun die Frage: „Was bin ich? Habe ich zumindest eine sichere Erkenntnis, dass es mich selbst
tatsächlich gibt, oder bin ich auch ein bloßer Schein, eine Selbsttäuschung?“
Die so für den gemeinen Menschen merkwürdige Frage nach der Sicherheit menschlicher Erkenntnis wurde im letzten Jahrundert
nicht nur durch vielfältige philosophische Spekulationen, sondern auch durch die modernen Naturwissenschaften noch
stärker verschärft, wobei philosophische Spekulationen in gewisser Hinsicht wichtiger sind, weil, wenn die
Naturwissenschaften mit den Sinnesdaten arbeiten und die Existenz der Außenwelt einfach voraussetzen, der Philosoph
keine solche Voraussetzungen machen darf. Er steigt eine Ebene tiefer ein und fragt, ob es überhaupt möglich ist,
solche Sinnesdaten zu gewinnen.
Unter den zahlreichen Versuchen, dieses erkenntnistheoretische Problem zu entschlüsseln, verdient der Lösungsweg, den
Simon L. Frank beschritten hat, eine besondere Aufmerksamkeit. Bevor ich aber zur Darlegung Franks Erkenntnistheorie
übergehe, möchte ich genauer auf die Frage eingehen: Was ist eigentlich so rätselhaft an unserer Erkenntnis?
\section{Wie weit geht der Zweifel?}
Ren\'{e} Descartes, der nach Arthur Schopenhauer „mit Recht für den Vater der neuern
Philosophie“\footcite[11]{schopenhauer} gilt, wollte bekanntlich vor allem ein festes Fundament für seine Philosophie
legen.\footcite[23f]{discours} Als erste Regel, die ihn von Abgründen des Nichts-Wissens zu wahren Erkenntnissen
leiten sollte, war, nichts in sein Wissen aufzunehmen, „als was sich so klar und deutlich darbot, dass
ich keinen Anlass hatte, es in Zweifel zu ziehen.“\footcite[33]{discours} Die materielle Welt fiel aus dieser
Kategorie gleich aus: Es könnte ja sein, dass ich sie nur träume, dass es sie aber nicht gibt. Das ist das
problematische Moment der gegenständlichen Erkenntnis. Sie ist außer uns, aber alles, was wir haben, sind unser Gehirn und
unsere Sinnesorgane. Wenn sie uns täuschen, dann haben wir ein völlig verkehrtes Weltbild, ohne das jemals zu merken
oder merken zu können.
Gibt es aber etwas, was nicht bezweifelt werden kann? Descartes bejaht diese Frage:
„Aber gleich darauf bemerkte ich, daß, während ich so denken wollte, alles sei falsch, es sich notwendig so verhalten müsse,
daß ich, der dies dachte, etwas war.“\footcite[57]{discours}
Nun fühlt man festen Boden unter den Füßen. Wenn ich auch an allem zweifeln kann, dann doch nicht daran, dass es
mich selbst gibt, dass ich denke und zweifle. Ferner definiert Descartes den Menschen als denkende Substanz,
\textit{res cogitans}\footcite[Vgl.][43]{geschichte17-18}, die Wladimir Solowjew seinerseits als
„einen unzweifelhaften Mischling“\footnote{\cite[40]{solowjow}. Zur Kritik Descartes denkender Substanz siehe den
kompletten ersten Aufsatz aus „Theoretische Philosophie“ im genannten Band.}
bezeichnet, weil jener dem Subjekt das zuschreibe, was ihm nicht mit Sicherheit gehöre. Alles Reden über das Ich
ist kein Reden über das Ich, sondern das Reden über \textit{Etwas}. Wenn wir über das Subjekt reden, vergegenständlichen
wir dieses, machen es zu einem Objekt, was gleichzeitig alle Probleme gegenständlicher Erkenntnis auf das Subjekt
überträgt. Descartes weist zum Beispiel darauf hin, dass die Gedankenwelt eines Traumes niemals so evident und vollständig
wie diese der Realität sei.\footcite[Vgl.][69-71]{discours} Wie kann man zu diesem Schluss
kommen? Man vergleicht das Realitätsbewusstsein mit demjenigen eines Traumes, was allerdings gar nicht in die umgekehrte Richtung
geht: Im Traum gelten andere Gesetze, die \textit{in diesem Moment} unvergleichbare Evidenz und Vollständigkeit haben.
Wenn ich also eine zweite Realität annehme und ich nur das Produkt eines Traumes eines Anderen bin, dann sind die
Gedankengänge meiner Wirklichkeit genauso lächerlich und absurd für die zweite Realität.
Natürlich gibt es einen Kern, denn ich bin doch etwas (wenn auch nur ein Traumgebild oder ein Produkt der Natur,
das sich einbildet, etwas frei denken zu können), aber man kann diesen Kern kaum
benennen.
Solowjew unterscheidet deswegen zwischen dem reinen und empirischen Subjekt. Jenes ist sicher und
unerschütterlich, da es uns auf dem unmittelbarsten Wege gegeben ist,
aber leer (wie ein mathematischer Punkt), dieses erfüllt und bunt, weil es die ganze Persönlichkeit
enthält, dennoch wackelig und grundlos.\footcite[Vgl.][51]{solowjow} Und so verhält es sich in diesem Model mit allem
Sein überhaupt.
Hiermit stehen dem Skeptizismus alle Türe offen, weil, wenn man das Sein radikal und bis zum Ende, als etwas,
was dem Erkennenden gegenüber steht, denkt, das Maximum, was man mit Sicherheit weiß, ist, dass man
\textit{in irgendeiner Weise} existiert. Alle anderen Erkenntnisse stehen unter Verdacht, nicht objektiv zu sein.
Die große Frage wäre also, ob man diese Kluft zwischen dem Subjekt und Objekt überbrücken kann.
\section{Zwei Hauptaspekte der Erkenntnislehre}
Das von mir oben geschilderte Problem ist als Transzendenzproblem bekannt. Frank unterteilt es in zwei
Fragen, wovon eine relativ einfach und in verschiedenen Systemen im Prinzip gelöst, die andere dagegen
schwieriger sei und oft außer Acht gelassen werde.\footcite[Vgl.][166f]{frank:problem} Einerseits handelt es
sich darum, zu erklären, wie das Subjekt das gegenständliche Sein, also das Transzendente, wirklich erfassen kann.
Andererseits stellt sich die Frage: Was bedeutet dieses gegenständliche Sein überhaupt, woher wissen wir, dass es
etwas von unserem Bewusstsein Unabhängiges, permanent Existierendes gibt?\footcite[Vgl.][168]{frank:problem}
Es ist kein Zufall, dass Frank im Bezug auf das Transzendenzproblem nicht nur über unser Verhältnis zum Sein spricht,
sondern auch über das Sein selbst, was streng genommen keine Aufgabe der Erkenntnistheorie ist, sondern die der
Ontologie. In seinem Aufsatz „Die Krise der modernen Philosophie“ hat Frank darauf hingewiesen, dass Kant
(und mit ihm die moderne Philosophie) jeder Ontologie eine Erkenntnistheorie vorgeordnet
sieht.\footcite[Vgl.][48]{frank:krise} Das Erkennen geht ja von uns aus. Wir haben ein gewisses Vermögen, das uns
ermöglicht, verschiedene Inhalte in uns aufzunehmen. Deswegen ist das Reflektieren über dieses Vermögen das
Grundlegendste, was es geben kann. Auch wenn wir über das Sein nachdenken, tun wir das vermittels dieses Vermögens.
Es dreht sich also alles um die Bedingung der Möglichkeit der Erkenntnis und die Wissenschaft, die diese Bedingung
erforscht, wenn sie tatsächlich gründlich sein will, muss selbst bedingungslos sein, das heißt sich auf keine vorgefasste
Ontologie stützen.\footcite[Vgl.][48]{frank:krise} Frank mit seinem scharfen Sinn für das
Sein (und nicht nur für die abstrakte Begrifflichkeit) tritt dieser Einstellung entgegen und dreht das Verhältnis
von Ontologie und Erkenntnistheorie um: Wird es denn nicht angenommen, dass es einerseits den Erkennenden und
andererseits das gegenständliche Sein \textit{gibt}? Die Spaltung
in Objekt und Subjekt ist somit nichts Anderes als eine ontologische Voraussetzung. Die Erkenntnistheorie muss zum
Bewusstsein kommen, dass sie selbst Ontologie ist und anders gar nicht gedacht werden kann, sie soll „eine offene und
richtige Ontologie“ sein und „sich von jenem [\dots] fehlerhaften circulus vitiosus befreien, in dem einzelne,
abgeleitete Daten eines begrenzten Seinsgebiets die logische Grundlage für die Beurteilung des seins im ganzen
waren.“\footcite[50]{frank:krise}
Wenn man nun die scheinbare Grenzlinie zwischen dem Subjekt und Objekt aufhebt, gelangt man auch schon zur Lösung
des ersten Teils des Transzendenzproblems. Das Bewusstsein ist eben nicht etwas in sich Geschlossenes, das auf eine
unbekannte Weise affiziert wird und nur verzerrte Bilder der Wirklichkeit in sich aufnimmt, sondern es steht
immer mitten im Sein und richtet seinen Blick auf die Gegenstände. Frank vergleicht den Erkenntnisprozess mit der
Wirkung einer Lampe, die aus sich selbst „hinausgeht“ und ihr Licht auf die Dinge wirft. Das menschliche Bewusstsein
ist seinem Wesen nach ein Lichtstrahl, der seine Grenzen transzendiert und so seine Umgebung
beleuchtet.\footcite[Vgl.][167]{frank:problem}
\section{Das Transzendente als unmittelbar Gegebenes}
Frank gibt sich mit dem Erreichten nicht zufrieden und untersucht genauer, soweit es möglich ist, die Seinsstrukturen
und das Interagieren des menschlichen Bewusstseins mit den anderen Teilaspekten des Seins.
Am Anfang bin ich durch systematischen Zweifel, der bei der objektiven Wirklichkeit ansetzt und zum Innersten
des Subjekts führt, zum Ergebnis gelangt, dass es unbedingt etwas geben muss. Man kann nur dieses „Etwas“ nicht
als res cogitans oder mit einem anderen Begriff bezeichnen, was gleichsam Vergegenständlichung bedeuten würde. Es
entkommt jeder Definition. Es ist ein Punkt, etwas unendlich Kleines, weil es nichts Definierbares in sich enthält
und unendlich Großes, weil es nichts außer sich selbst kennt. Man kann auch nicht von Dauer sprechen.
Die Vergangenheit und die Zukunft sind uns nicht unmittelbar gegeben. Die Zukunft gibt es im Moment noch gar nicht
und seine Vergangenheit kann man rekonstruiren, auch wenn diese Rekonstruktion nicht im Geringsten der Wahrheit
entspricht, ohne dabei die Absicht zu lügen zu haben\footnote{Juristen sind so genannte
\textit{Knallzeugen} bekannt, die vor Gericht in allen Einzelheiten etwas beschreiben können, was sie gar nicht
gesehen haben, sondern erst im Moment des Ereignisses (beispielsweise eines Autounfalls) darauf aufmerksam geworden
sind. Die Widersprüchlichkeit seiner Aussagen wird so einem Zeugen nicht
bewusst. \cite[Vgl.][17]{psyche}}. Es lebt nur in diesem konkreten Moment. Es wäre ein Nichts, wenn es nicht
ein „Etwas“ wäre, „es ist ein \textit{Sein} schlechthin“\footcite[178]{frank:problem}. Es ist primär und
unmittelbar evident. Alles Andere, Denken, Bewusstsein, sind im Vergleich dazu sekundär, sie müssen ja erst
\textit{sein}, also an einem Sein teilhaben. Frank betont nochmal ausdrücklich, dass das Subjekt kein Träger vom
Sein ist, sondern, dass es das Getragene ist, es haftet selbst am Sein, dass alles in sich
vereinigt\footcite[Vgl.][178]{frank:problem}.
Es ist also gelungen, etwas Evidentes, Unleugbares zu finden, und es annähernd zu beschreiben. Es scheint jedoch zu
sein, dass man an dieser Stelle auch bleiben muss, weil es sich nichts mehr findet, was genauso selbstevident und dem
Menschen unmittelbar gegeben wäre. Im nächsten Schritt kritisiert Frank aber die Meinung, dass die
Selbstevidenz, unmittelbare Gegebenheit und Immanenz unbedingt zusammenfallen. Es ist überhaupt ein Merkmal unseres
Denkens, dass wir ein Ding nie einzeln denken können. Was ist zum Beispiel die Gegenwart? Die Gegenwart wird als eine
Grenzlinie zwischen Vergangenheit und Zukunft vorgestellt. Genauso kann man nur auf dem Hintergrund dessen, was
die Gegenwart ist, verstehen, was die Zukunft ist. Dasselbe gilt selbstverständlich auch für die Vergangenheit. Alle
drei Begriffe stehen
in einer Relation zueinander und können unabhängig voneinander gar nicht gedacht werden. Wenn es keine Zukunft und
keine Vergangenheit gegeben hätte, dann hätte man auch keine Vorstellung von der Gegenwart. Wenn man genauer hinschaut,
dann erblickt man, dass es sich ähnlich auch mit allen anderen Dingen verhält, auch mit räumlichen Gegenständen. Wenn
ich einen roten Fleck sehe und sage, dass der Fleck rot ist, bringe ich ihn in Beziehung mit allen anderen Gegenständen,
die vielleicht grün, schwarz oder weiß sind. Wie hätte ich die Röte wahrnehmen können, wenn es keine anderen Farben
gegeben hätte?\footcite[Vgl.][26f]{ehlen:frank-intro}
Zu einem Inhalt A kommt notwendig ein anderer Inhalt, non-A, hinzu, der dem A nicht immanent, sondern
transzendent ist und mit ihm in einer Verbindung steht. Nicht nur Immanentes ist uns evident und unmittelbar gegeben,
es ist nicht mal das Primäre, weil es nur im Zusammenhang mit dem Transzendenten gedacht werden kann, als Teil eines
Ganzen, das folglich auch \textit{ist}. Dieses non-A ist kein Gegenstand unserer Erkenntnis in dieser Sekunde,
weil unser Blick auf den Inhalt A gerichtet ist, non-A ist uns verborgen,
aber trotzdem als solches gegeben.\footcite[Vgl.][179ff]{frank:problem} Demzufolge kann man auch das
Sein nicht als einen nur in diesem Moment existierenden, mathematischen Punkt deuten. Dieser Moment setzt einen anderen
voraus und ein Punkt setzt eine unendliche Seinsfülle voraus, der er zugehört.
Das ist die Antwort, die Frank auf die zweite Teilfrage des Transzendenzproblems gibt. Es gibt Sein, das nicht
gegenständlich ist, sondern das eine Einheit vom Subjekt und dem gegenständlichen Sein darstellt. Alles, was ist,
partizipiert an ihm, wodurch eine Verbindung zwischen den Teilen des Seins, zwischen Subjekt und Objekt
gewährleistet wird.
\section{Das mitgedachte Unbekannte}
Das Moment des Unbekannten, des Verborgenen spielt auch eine große Rolle im Erkenntnisprozess. Frank untersucht ein
synthetisches Urteil der Form „S ist P“. Wenn S als eine Begriffsbestimmtheit gedacht wird, kann S nach
dem Widerspruchsprinzip kein P sein, weil S ein S ist. Wenn man „S ist P“ sagt, meint man dann wohl etwas Anderes.
„Unter S wird aber tatsächlich zweierlei zugleich gedacht: einerseits eine Begriffsbestimmtheit A, die sich eben mit
der Bestimmtheit B, die das Wesen des Prädikats ausmacht, verbindet [\dots]“.\footcite[170]{frank:problem}
Andererseits hat unsere Erkenntnis nur Sinn, wenn sie auf etwas Unbekanntes ausgerichtet ist, und es ist, wie es oben
gezeigt wurde, tatsächlich so, dass das Unbekannte immer mitgedacht wird.
„Wäre die Realität auf das jeweils Erkannte beschränkt,
würde fortschreitendes Erkennen darin bestehen, daß ein neuer Wissensinhalt den anderen ablöst. Dieser Vorgang [\dots]
würde der Dynamik des Erkenntnisvorgangs nicht entsprechen.“\footcite[25]{ehlen:frank-intro} Also muss S auch
etwas Unbestimmtes enthalten, es ist das überbegriffliche Ganze, in dem wir im Urteil die Bestimmtheit B erkennen.
Frank schließt daraus, dass die eigentliche Form des Urteils \mbox{AX = B} sei\footcite[Vgl.][171]{frank:problem}.
Wobei dieses X nicht etwas an sich
Unerkennbares ist, Frank bezeichnet es mit dem Wort „Bestimmtheitskomplex“\footcite[171]{frank:problem}. Dieser
Komplex ist unabhängig von uns vorhanden und bestimmt, aber nicht von uns erkannt. Bei der Erkenntnis hat man nicht
nur mit den Erkenntnisinhalten zu tun, sondern auch mit dem Unbekannten, mit der Inhaltsfülle des Gegenstandes
selbst. Die Zweieinheit von Subjekt und Prädikat im Urteil kann nicht zufällig sein und ist nicht sekundär,
weil es dann schwer zu erklären wäre, wie es überhaupt zu dieser Kopula kommt,\footcite[Vgl.][170]{frank:problem}
muss also im Sein verankert sein und die Einheit vom Gegenstand und dem Erkenntnisinhalt widerspiegeln.
\section{Intuitive und begriffliche Erkenntnis}
Die nächste Frage, der Frank sich widmet, ist, wie dieses Abbilden des Gegenstandes, also dieses Gewinnen des
Erkenntnisinhaltes, überhaupt möglich ist, weil man den Erkenntnisinhalt nicht mit dem Inhalt des Gegenstandes selbst
verwechseln darf. Unsere Urteile können auch falsch sein. Der Wahrheitswert unserer Erkenntnisse wird auf irgendeine
Weise am Inhalt des Gegenstandes gemessen. Um ein Abbild zu machen, muss man aber den Gegenstand bereits
besitzen, was jedoch zufolge hätte,
dass ein Abbild überflüssig wäre, und wenn man ihn nicht besitzt, dann ist es einfach nicht möglich so ein
Abbild anzufertigen, weil man das Original nicht hat.\footcite[Vgl.][193]{frank:meta}
Als Ausgangspunkt nimmt Frank das Schlussprinzip (A $\Rightarrow$ B) und die logische Regel modus ponens
(A $\Rightarrow$ B; nun ist A, also ist auch B), weil es dem Vorgehen unserer Erkenntnis entspricht:
Aus einem bereits bekannten A wird B gefolgert. Die Überlegungen, die Frank hier anstellt, sind im Wesentlichen
ähnlich der Untersuchung des synthetischen Urteils der Form „A ist B“. A ist eben A und kann keine „Informationen“
über B enthalten, also muss es eine primäre Einheit AB geben, die die Möglichkeit des Schlusses begründet. Die
Schlussfolgerung darf aber in diesem Fall nicht als eine Summe von A und B gedacht werden, sonst wäre es keine
wirkliche Schlussfolgerung, sondern die beiden Teile würden uns unmittelbar gegeben. Das Ganze ist in diesem Fall
viel mehr eine Potenz, sodass die Bestimmtheit A sich zunächst auskristallisiert und danach aus dem vom Ganzen
gebliebenen Rest B gebildet wird.\footcite[Vgl.][194-197]{frank:meta}
Da es unendlich viele Bestimmtheiten gibt, muss es einen Bereich geben, der alles Gedachte und Erkennbare überhaupt
umfasst. Allerdings können die logischen Denkgesetze (Kategorie der Identität und Unterschiedes, der Satz des
ausgeschlossenen Dritten) nicht als Verbindungsglied zwischen den als fertig gegeben gedachten Bestimmtheiten
gedacht werden. Das führt zu Tautologien und Widersprüchen. Biespielsweise besagt die Identität, dass
\mbox{A = A} ist, wobei die Identität das Vorhandensein eines
zweiten A eigentlich ausschließt. Der Satz des ausgeschlossenen Dritten besagt: Alles Denkbare ist entweder A oder non-A und ein
Drittes ist nicht gegeben. „Alles Denkbare“ ist aber ein Drittes, weil es sowohl A als auch non-A enthalten
kann. Und die Möglichkeit dieses Dritten wird im Satz geleugnet. Wäre ein Drittes in der Tat ausgechlossen, wäre der
Satz gar nicht denkbar, weil „alles Denkbare“ nur eins von beidem wäre.\footcite[Vgl.][198]{frank:meta} Dagegen
sind die Denkgesetze die Möglichkeitsbedingungen, „auf Grund deren die begriffliche Bestimmtheit überhaupt (also
ein A und ein non-A) erst entsteht.“\footcite[Vgl.][198f]{frank:meta} So wird alles Denkbare zunächst als eine
Einheit gedacht (Identitätsprinzip), dann wird von allem Anderen abgehoben (Underschiedsprinzip) so, dass es sich
„eindeutig als ein »Solches«, ein genau bestimmtes, einzigartiges »Quale«
konstituiert“\footcite[199]{frank:meta} (Satz des ausgeschlossenen Dritten).
Hier nähern wir uns einem Gebiet an, das nicht nach logischen Gesetzmäßigkeiten funktoniert, sondern sie erst
begründet. Dieses Gebiet ist deswegen \textit{metalogisch}. Frank bezeichnet darum die Beziehung zwischen der primären
Einheit und dem System der Bestimmtheiten als „metalogische Ähnlichkeit“\footcite[200]{frank:meta}, sie haben die
gleichen Inhalte, aber unterschiedliche Seinsgrade. Aus dem Vorhandensein dieser zwei Ebenen, die das Sein jeweils
auf eigene Art und Weise abbilden, leitet Frank die Existenz auch einer zweiten Erkenntnisart, ab, der
intuitiven Erkenntnis, die grundlegend für die begriffliche ist, da die erstere das Material für
die letztere aus der überbegrifflichen Alleinheit liefert.\footcite[Vgl.][201]{frank:meta}
Die intuitive Erkenntnis hat das Erlebnis zu ihrem Ansatzpunkt. Das Erlebte ist zunächst ein X, etwas vollkommen
Unbekanntes und es wird nicht nur durch das Gehalt dieses Erlebnisses bestimmt, sondern dieses Unbekannte wird
in einem Zusammenhang mit dem Ganzen des Seins erkannt, als dessen Teilmoment, was objektive
Erkenntnis möglich macht, weil dieses Ganze keine amorphe Masse ist, sondern „konkrete Einheit der
Mannigfaltigkeit“\footcite[203]{frank:meta}. Die intuitive Erkenntnis dient nicht nur als Grundlage für die
begriffliche Erkenntnis, sondern sie ist auch dem Gegenstand selbst mehr adäquat, weil
die Teilaspekte des Seins intuitiv als ein Ganzes gefasst werden, was der Einheit des Seins mehr entspricht. Die
Entsprechung ist aber wiederum kein Original. Man könnte unsere Erkenntnis (jeder Art) mit einem malerischen Werk
vergleichen. Man kann eine Gegend sehr gut auf einem Blatt Papier darstellen, die Deminsionen können anhand bestimmter
Techniken nachgemacht werden, sie sind aber trotzdem nicht da, sondern nur in der Natur selbst. Dazu muss noch gesagt
werden, dass ein Kunstwerk natürlich zeitlos ist, ihm fehlt der Atem, der die lebendige Natur bis in die letzte Tiefe
durchdringt.\footcite[Vgl.][210f]{frank:meta}
Im Gegensatz zur intuitiven Erkenntnisweise hat die begriffliche Erkenntnis einen
negativen Charakter, weil A durch die Verneinung alles Anderen bestimmt wird, A steht immer in einer Relation zu non-A,
welches als „der unendliche dunkle Rest“\footcite[205]{frank:meta} übrig bleibt. Eine Bestimmtheit A ist immer
eine Abspaltung, eine gewisse Verarmung im Vergleich zur primären Einheit „A + non-A“ und trotzdem verliert die
begriffliche Erkenntnis nicht an Bedeutung. Zwar ist sie relativ „tot“, sie greift Daten aus der Seinsfülle
heraus und macht sie zu einem starren System, doch ist das
menschliche Intuitionsvermögen auch nicht im Stande das Sein in seinem ganzen Umfang zu fassen. Beide
Erkenntnisarten vervollsändigen einander. Die begriffliche Erkenntnis hilft das Sein auseinanderzunehmen und
auf diese Weise es genauer zu untersuchen. Nur die Kooperation der beiden Erkenntnisarten macht es möglich die
Mannigfaltigkeit und die Einheit des Seins für den erkennenden Menschen in ein Gleichgewicht zu
bringen.\footcite[Vgl.][206]{frank:meta}
\section{Wissendes Erleben}
Simon Frank hat uns ziemlich nah an das Sein herangeführt (genauer gesagt an die bewusste Schau des Seins). Und doch
ist dieses Sein vor unseren Augen unbeweglich, grob, blass. Frank führt das Beispiel eines Apfels an, dessen Begriff
oder das vollkommenste intuitive Erfassen uns jedoch nicht sättigen können.\footcite[Vgl.][210]{frank:meta} Der
Unterschied zwischen einem Apfel als Gegenstand und einem Begriff ist die „Idealität“, die Frank mit der
Zeitlosigkeit, die ich bereits kurz angesprochen habe, gleichsetzt. Hier kehren wir wieder zum Anfang, da wo ich
im Zusammenhang mit dem Zweifel geschrieben habe, dass alles, was zum \textit{Gegenstand} menschliches Denkens (oder
auch intuitives Anschauens) werden kann, wird vergegenständlicht, „[a]us dem zeitlichen Geschehen wird dadurch
\textit{eine ewig-unbewegliche Wahrheit}\footcite[211]{frank:meta}. Das gilt sowohl für abstraktes Denken als auch
für normales Geschehen. Dieses Zeitlose kann nicht das Primäre sein aus dem einfachen Grund, dass das Zeitlose immer
in einer Relation mit dem Zeitlichen steht. Das wahre Absolute ist nicht relativ zu etwas, es schließt Relatives ein,
ohne es aufzulösen. Es kann auch nicht zeitlos sein, sondern überzeitlich. Erst aus dem Überzeitlichen entwickeln sich
diese zwei Gegensätze: Zeitloses und Zeitliches.\footcite[Vgl.][213]{frank:meta}
Gibt es eine Möglichkeit den „Apfel des Seins“ nicht nur begrifflich zu erkennen und intutiv anzuschauen, sondern ihn
auch zu kosten? Jede gegenständliche Erkenntnis ist nur ein Abbild, das deswegen nicht dem Gegenstand selbst
adäquat ist, sondern höchstens etwas über ihn sagt. Frank wählt für diesen Fall den Begriff
„cognitio \textit{circa rem}“ anstatt von „cognitio \mbox{\textit{rei}\hspace{0.02cm}\footcite[217]{frank:meta}.}
Wenn ein Lebewesen in sich tatsächlich geschlossen wäre, wäre eine wahre Erkenntnis in der Tat nicht möglich, weil man
sich dann nur mit Abbildungen der Wirklichkeit begnügen sollte. Es wurde jedoch gezeigt, dass der Mensch auf diese
Weise nicht denkbar ist. Er ist vielmehr --- wie alles andere Seiende auch --- vom Sein durchdrungen. Der Mensch
geht über sich hinaus, weil in ihm sich das manifistiert, was weit über die Grenzen seines eigenen menschlichen Wesens
fließt und die ganze Realität mit sich füllt. Die Erfahrung der Manifestation des Seins in uns macht man im Erleben,
das immer ein wissendes Erleben ist. Frank macht an dieser Stelle eine strenge Unterscheidung zwsichen der dunklen
Irrationalität des unmittelbaren Lebens und der \textit{über}rationalen Fülle der Lebensintuition, die „helles inneres
Erleuchten“\footcite[Vgl.][219]{frank:meta} ist.
In ihm, im Erleben, in dem das Sein sich selbst uns offenbart,
wurzelt die intuitive Erkenntnis und allein dadurch wird die gegenständliche Erkenntnis möglich.
\section{Literaturverzeichnis}

View File

@@ -0,0 +1,223 @@
---
layout: post
date: 2017-04-12 00:00:00
tags: Aufsatz
title: Herausforderungen der Technikphilosophie
teaser:
<p>Eines der wichtigsten Merkmale unserer Zeit ist die Technisierung vieler Bereiche unseres
alltäglichen Lebens. „Das technische Zeitalter“ kann man über unsere Tage sagen hören.
Doch, was jene Technisierung kennzeichnet, ist nicht so sehr die Technik selbst, sondern
die rasche Entwicklung derjenigen. Als solche ist die Technik nichts Neues, wenn auch
die Technik des letzten Jahrhunderts ganz anderer Art, als das, was man vorher kannte.
Es gibt sie dennoch mehr als hundert Jahre, vielleicht gab es sie schon immer. Vielleicht
ist die Fähigkeit aus der Natur Erkenntnisse zu gewinnen und dann anhand derer etwas
zu erfinden, etwas was einen Menschen eigentlich ausmacht.</p>
<p>Wenn man über das technische Zeitalter spricht, ist diese Aussage nicht unbedingt
wertneutral. Der zügellose technische Fortschritt hatte zur Folge, dass er viel
Aufmerksamkeit in der Gesellschaft auf sich gelenkt hat, worüber man sich auch kaum wundern
kann, weil wir heute in so vielerlei Hinsicht auf die Technik angewiesen sind.</p>
<p>Desto interessanter wird es, über die Technik und Technisierung nachzudenken. Was
ist sie nun? Ist sie etwas Gutes, was uns weiterbringt und uns mehr Macht über die
Natur beschert? Ist sie etwas Schlechtes, was den Menschen jeden Tag immer mehr von
ihr abhängig und hilfslos macht?</p>
---
Eines der wichtigsten Merkmale unserer Zeit ist die Technisierung vieler Bereiche unseres alltäglichen
Lebens. „Das technische Zeitalter“ kann man über unsere Tage sagen hören. Doch, was jene
Technisierung kennzeichnet, ist nicht so sehr die Technik selbst, sondern die rasche Entwicklung
derjenigen. Als solche ist die Technik nichts Neues, wenn auch die Technik des letzten Jahrhunderts
ganz anderer Art, als das, was man vorher kannte. Es gibt sie dennoch mehr als hundert Jahre, vielleicht
gab es sie schon immer. Vielleicht ist die Fähigkeit aus der Natur Erkenntnisse zu gewinnen und dann
anhand derer etwas zu erfinden, etwas was einen Menschen eigentlich ausmacht.
Wenn man über das technische Zeitalter spricht, ist diese Aussage nicht unbedingt wertneutral.
Der zügellose technische Fortschritt hatte zur Folge, dass er viel Aufmerksamkeit in der Gesellschaft
auf sich gelenkt hat, worüber man sich auch kaum wundern kann, weil wir heute in so vielerlei Hinsicht
auf die Technik angewiesen sind.
Desto interessanter wird es, über die Technik und Technisierung nachzudenken. Was ist sie nun?
Ist sie etwas Gutes, was uns weiterbringt und uns mehr Macht über die Natur beschert? Ist sie
etwas Schlechtes, was den Menschen jeden Tag immer mehr von ihr abhängig und hilfslos macht?
Ich habe vorher schon angedeutet, dass die Technik auch als etwas genuin Menschliches verstanden
werden kann. Dann wäre die Frage nach der Technik einer ganz anderen Dimension zuzuordnen. Es
wäre kein bloß moralisches Problem, also ob die Technik gut oder schlecht an sich sein kann, zu welchen
Zwecken sie eingesetzt werden darf und ob jeder Zweck das Mittel rechtfertigt; keine Frage der
politischen Zugehörigkeit oder der persönlichen Einstellung, ob man bestimmte Technologien
befürwortet oder nicht und ob man an den hellen Morgen glaubt oder eher diesbezüglich pessimistisch
ist. Es wäre vielmehr eine philosophische Fragestellung, weil es vor allem die Philosophie ist, die
nach der Washeit der Dinge und der Möglichkeitsbedingungen fragt: Was ist der Mensch? Was macht einen
Menschen aus? Was ist und warum eigentlich Technik, was macht sie möglich?
Die philosophische Natur ist auch aus einer anderen Überlegung einsehbar. Und zwar sind viele Fragen,
die mit der Technik verbunden sind, gar nicht durch das technische Denken selbst beantwortbar, sondern
bedürfen einer Reflexion, die über das Technische hinausgeht. Selbst wenn jemand behaupten würde, dass die
Technik nur aus sich heraus erklärt werden könne und müsse und keine weitere Rechtfertigung oder Würdigung
nötig habe, wäre das eine Behautpung, die die Grenzen des Technischen überschreitet.
Im Folgenden will ich andeuten, welche Fragestellungen und Probleme das Eintreten des Technischen in unser Leben
mit sich bringt. Mir geht es nicht darum, die Antworten auf bestimmte Fragen zu geben, sondern auf die
Spannungsfelder zu verweisen, die sich eröffnen, wenn man über das Technische nachdenkt, und so zu zeigen, dass es
sich dabei eigentlich um Philosophie handelt.
\section{Kunst oder Mittel zum Zweck}
Zunächst stellt sich die Frage nach dem Wesen und dem Ursprung des Technischen. Unter Technik verstehen
wir bestimmte Arten von Menschenwerk, aber was lässt sich über den Status dieses Werks sagen? Hier gibt es
zwei entgegengesetzte Extreme: Man kann die Technik als die Folge des menschlichen zweckrationalen Handelns
, das heißt als Mittel zu einem bestimmten Zweck, oder als ein Kunstwerk verstehen. Das Verständnis von
Technik würde sich dann aus dem zweckrationalen Handeln und der schöpferischen Kraft zusammensetzen, wobei man deren Rolle
unterschiedlich gewichten kann.
Was kann der Zweck der Technik sein? Wenn man einen möglichst allgemeinen Zweck nennen will, der auf möglichst viele
oder im besten Fall auf alle technischen Erfindungen zutrifft, dann würde ich das Bezwingen der Natur vorschlagen.
Die Technik kam in die Welt, um die Bürde der Arbeit leichter zu machen. Man kann vieles schneller und
qualitativ besser erledigen, wenn man passende Instrumente zur Hand hat. Es ging natürlich viel weiter, als nur
eigenes Überleben auf diese Weise zu sichern. Hier tritt der Begriff Luxus in Erscheinung: Man produziert
Gegenstände, die nicht unmittelbar notwendig sind. Es geht dann so weit, dass man im Zusammenhang mit der
Marktwirtschaft vom Produzieren der Bedürfnisse spricht.
Kunst kann man in einer gewissen Hinsicht der Zweckrationalität entgegenstellen. So spricht Kant von
ästhetischen Urteilen als dem Wohlgefallen ohne alles Interesse\autocite[Vgl.][49]{kant:ku}:
„Wir können aber diesen Satz, der von vorzüglicher Erheblichkeit ist, nicht besser erläutern,
als wenn wir dem reinen uninteressierten Wohlgefallen im
Geschmacksurteile dasjenige, was mit Interesse verbunden ist, entgegensetzen [\dots]“\autocite[50]{kant:ku}.
Bei der Einführung der Technik spricht man oft von einer technischen \textit{Erfindung}. Nun, wenn man
nicht gerade ein ideales Reich der Ideen, wo alle technischen Erfindungen bereits realisiert sind,
annimmt\autocite[Vgl.][59f]{ropohl:aufklaerung}, enthält die Technik eine künstliche Dimension, in der
die schöpferische Kraft des Menschen etwas Neues erfindet.
Nun es hat Konsequenzen, ob man die Technik mehr als Mittel zum Zweck oder Kunst versteht. Das Erfinden ist
meines Erachtens ein wichtiger Bestandteil dessen, was die menschliche Freiheit konstituiert, und man versucht
diesen Bereich heute möglichst wenig zu zensieren, sondern es dem Menschen zu überlassen, sich auf seine
eigene Weise auszudrücken. Aber \textit{darf} man auch im technischen Sinne alles erfinden, was man erfinden
\textit{kann}?
\section{Erhöhung der Lebensqualität oder Zerstörung}
Ein Leben ohne technische Geräte im Haushalt ist kaum vorstellbar. Elektrische Geräte, Wasserversorgung,
Computer, Telefone gehören zum Alltag. Selbst die allgemeine Zugänglichkeit der Gegenstände, die wir
normalerweise nicht als Technik bezeichnen würden, wie zum Beispiel Bücher, verdanken wir dem heutigen
Stand der Technik. Nicht anders ist es im beruflichen Umfeld. Auch die moderne Wissenschaft und Forschung
sind von Teilchenbeschleunigern und Supercomputern abhängig.
Technische Erfindungen bringen uns Komfort, erhöhen unsere Leistung, ermöglichen neue Arten von
Kommunikation. Das hat allerdings auch eine andere Seite. Die Möglichkeiten, die die moderne Entwicklung
mit sich bringt, birgt viele Gefahren und versetzt wohl viele Menschen in Schrecken, was aus der
zahlreichen Kritik an der Technik zu sehen ist. Man denke nur an den Kalten Krieg oder an die
Atomkatastrophen der letzten Jahrzehnte: Tschernobyl und Fukushima, die zu vielen Protesten gegen die
Verwendung von Atomenergie geführt haben. Hans Blumenberg spricht in diesem Zusammenhang sogar von der
„Dämonie der Technik“\autocite[Vgl.][11]{blumenberg:schriften-technik}.
Andererseits, wenn man die Entwicklung der Energie verfolgt, so führen Streike und Proteste in der
Gesellschaft nicht zu einem Rückschritt, nicht zur Abweisung der Atomenergie, sondern zur Suche nach
alternativen Lösungen. Man forscht weiter und schaut, ob man andere Energiequellen finden kann, die
die vorhandenen zumindest teilweise ersetzen können, ohne an Leistung zu verlieren. Das heißt, man sehnt
sich nicht nach der „Rückkehr zu Natur“, sondern man sucht
nach \textit{technischen} Lösungen für die \textit{technischen} Probleme. Das kann zu einem Zirkel führen,
aus dem man vielleicht nicht rauskommen kann: Die vorhandene Technik motiviert zu Entwicklung anderer
Alternativen, die mit der Zeit wiederum Schwächen aufweisen, die wieder technisch ausgeglichen werden müssen
und so weiter. Ich denke, man hofft irgendwann ans Ende zu kommen und eine perfekte Lösung zu finden, die keine
beweinenswerten „Nebeneffekte“ hat. Die Frage, die der Mensch sich heute zu stellen hat, ist
natürlich: Wird es denn irgendwann so sein? Oder ist es nur ein Selbstbetrug und eitle Hoffnung?
Die Antwort, die jeder Mensch auf diese Frage gibt, ist von entscheidender Bedeutung für das Verhältnis des
Menschen zur Natur. Und die Frage selbst ist kaum eine wissenschaftliche Frage, sondern
vielmehr eine ethische und philosophische.
Interessant ist, welche radikale Stellung Günter Ropohl nimmt. Er schreibt über ein anderes modernes Problem,
das in dem Verhältnis des Menschen und der Technik und Natur ihren Ursprung hat: das ökologische Problem.
Er sieht die Lösung, wie ich oben beschrieben habe, in der weiteren technischen Entwicklung, die nicht nur
zu einer Ausbeutung der Natur für die Menschenzwecke führt, sondern die Natur unter Schutz mit Hilfe der Technik
nimmt, ganz in dem Sinne des Gartens Eden, den der erste Mensch zu pflegen und zu schützen gehabt habe, und
schreibt Folgendes:
\begin{quote}
Wenn die Gattung Mensch die nunmehr gebotene ökotechnologische Wende nicht vollzieht, wird sie gemäß
ökologischen Prinzipien über kurz oder lang eliminiert werden; dann und nur dann wird es wieder Natur geben.
Wenn jedoch die Menschen die Hege und Pflege des irdischen Ökosystems mit der erforderlichen Konsequenz
vervollkommen, so bedeutet dies nicht mehr und nicht weniger als das Ende der Natur.\autocite[71]{ropohl:aufklaerung}
\end{quote}
\section{Befreieung oder Versklavung}
Der Satz im vorherigen Abschnitt, dass die Technik die Entwicklung weiterer Technik
\textit{motivieren} kann, hat eine interessante Struktur. Die Technik wird hier \textit{personifiziert},
einem unbelebten Gegenstand, einer unbelebten Struktur wird aktives Handeln zugeschrieben. Kann ein Messer
oder ein Handy handeln? Aber das ist eben das, was wir in der letzten Zeit beobachten. Die Technik hat
eine gewisse Autonomie, Eigentendenz.
Die Technik hat schon im Laufe ihrer gesamten Geschichte geholfen, den Menschen von schwerer Arbeit zu
befreien, dem Menschen ein würdiges Dasein zu gewährleisten. Die Folgen davon kann man in heutiger Zeit
gut beobachten. In den entwickelten Ländern müssen relativ wenige Mensche schwere Arbeiten ausführen, vieles
kann von Maschinen teilweise oder vollständig übernommen werden. Und selbst, wenn die Maschine von mehreren
Menschen gesteuert werden muss, ist eine ganze andere Art der Arbeit, als die Tätigkeit selbst auszuführen.
Kann man das aber nicht so hinstellen, dass während der Mensch von schwerer Arbeit befreit wird, er von
seinem Befreier abhängig wird? Und das ist nicht nur in dem Sinne, dass wir Instrumente verwenden, die
unser Leben erleichtern, dass wir gewissermaßen unserer Freiheit beraubt werden. Moderne Gesellschaft kennt
neue Arten von Sucht, wie zum Beispiel Spielsucht. Man hört Beschwerden über die jungen Leute, die die
ganze Zeit nur in ihr Handy starren, und keinerlei „reale“ Kontakte mehr haben (wobei ich
mich einer Meinung enthalten möchte, ob solche Beschwerden gerechtfertigt sind). Aber selbst,
wenn man von der individuellen Ebene absieht, schreibt Hans Blumenberg über „eine spezifische
Eigengesetzlichkeit“ eines Machtmittels wie Atomkraft\autocite[Vgl.][13]{blumenberg:schriften-technik}:
„So wie das technische Gebrauchsprodukt Bedarf zu erzeugen vermag, so schafft das technische Machtmittel
mit eigenartiger Automatie auslösende Situationen.“\autocite[13]{blumenberg:schriften-technik}
Hier stellt sich die Frage, ob ein Messer tatsächlich einen neutralen ethischen Wert hat, und es nur auf den
Menschen ankommt der ihn verwendet, ob er damit nur das Brot schneidet oder noch für andere Zwecke einsetzt,
oder ob ein Messer einen immanenten Wert hat, der zu dessen Benutzung nicht nur für gute Zwecke
herausfordert.
\section{Gleichheit oder Zerspaltung}
Ein weiteres von der Technik verfolgtes Ziel ist, die Kluft zwischen sozialen Schichten der
Gesellschaft geringer zu machen. Technische Mittel ermöglichen es, verschiedene Artefakte für
alle Menschen zugänglich zu machen. Zum Beispiel der Buchdruck hat dazu geführt, dass die
Produktionskosten von Büchern stark gesunken sind, und viel mehr Menschen sich den Kauf von
Büchern erlauben konnten.
Das Beispiel der Bücher ist auch geeignet, wenn man die Bücher als Informationsquelle
betrachtet und zur heutigen digitalen Informationsvermittlung kommt.
Man könnte denken, dass, wenn die Mehrheit der Bevölkerung einen Internetzugang
und einen Computer hat, es allen den gleichen Zugang zu den Informationen automatisch
ermöglichen würde.
Dem kann man entgegenbringen, dass die Quantität noch nichts über die Qualität sagt, denn
ein Internetzugang noch nichts darüber sagt, wie er genutzt wird. Da die Nutzung der digitalen
Medien immer mehr an Bedeutung gewinnt, zum Beispiel, in der Schule und am Arbeitsplatz, kommt
es dazu, dass einige gesellschaftliche Gruppen noch weiter voran kommen, weil sie mit entsprechenden
technischen Mitteln umgehen können, die anderen darauf nicht zugreifen. So wird die Kluft nicht kleiner,
sondern im Gegensatz größer. Dieses Phänomen ist keine Spekulation, sondern wurde durch Studien
bereits vor etwa 20 Jahren entdeckt und immer wieder bestätigt. Es hat den Namen „digitale
Spaltung“ (Digital divide) bekommen.\autocite[Vgl.][206--221]{filipovic:ungleichheit}
\section{Schlussbemerkung}
Mit diesen wenigen Beispielen habe ich zu zeigen versucht, dass die technische Entwicklung unserer Zeit sehr
schwer nur mit einem „Gut“ oder „Schlecht“ bewertet werden kann. Es stehen immer komplexe
Fragen im Hintergrund, die zwei Seiten haben und wo die goldne Mitte nicht unbedingt einfach zu finden
ist.
Viele Probleme, die direkt oder nur indirekt von der Wissenschaft und Technik verursacht wurden, sind
gar keine wissenschaftliche und noch weniger technische Fragen, sondern sie berühren solche Bereiche wie
die der Ethik, der Verantwortung und des menschlichen Selbstverständnisses. Sie haben auch eher wenig
Bedeutung für die Wissenschaft oder Technik, dafür aber für die menschliche Existenz, sowohl auf der
individuellen als auch auf der gesellschaftlichen Ebene.
Das ist der Grund, warum ich denke, dass eine philosophische Reflexion im Bereich der Technik unentbehrlich
ist. Ich denke, es ist verantwortungslos, alles dem natürlichen Lauf der Dinge zu überlassen, ohne sich
zumindest zu fragen, warum es so geschieht, welche Konsequenzen es haben kann und ob man in einer
bestimmten Lage etwas unternehmen soll oder kann. Wieder wäre es äußerst wichtig, dass eine solche philosophische
Reflexion die moderne Entwicklung nicht bloß dämonisiert oder glorifiziert, sondern möglichst gerecht
und ausgeglichen verläuft, weil sie nur so ernst genommen werden kann, was nicht zu vernachlässigen ist, wenn
die Technikkritik nicht in der Luft hängen oder nur deskriptiv bleiben will, sondern auch etwas aktiv
für die Zukunft bewirken will.
\begin{quote}
So wäre es eine wichtige Aufgabe für eine Philosophie der Technik an Schule und Hochschule, den zukünftigen
Ingenieuren und Technikern zeigen zu können, wie Grundlagenforschung, angewandte Forschung und Praxis
zusammenhängen, welche Rolle die Arbeit, die Praxis, die gestaltete Technik, die Muße und die Kunst bei
der Konstitution unseres Selbstverständnisses spielen.\autocite[105]{kornwachs:technik}
\end{quote}

View File

@@ -0,0 +1,17 @@
---
layout: post
date: 2017-05-26 20:09:00
tags: Gedicht
title: Die Narren sollen weiter lästern…
teaser: |
<p>
Die Narren sollen weiter lästern,<br>
für andre Themen sind sie dumm.<br>
Ich bin zu müde mich zu bessern.<br>
Der Weise schweigt und trinkt sein Rum.
</p>
---
Die Narren sollen weiter lästern,\\
für andre Themen sind sie dumm.\\
Ich bin zu müde mich zu bessern.\\
Der Weise schweigt und trinkt sein Rum.

View File

@@ -0,0 +1,339 @@
---
layout: post
date: 2017-05-09 00:00:00
tags: Aufsatz
title: Technikkonzept von Ernst Kapp
teaser:
<p>Zwar begleiten die technischen Erfindungen den Menschen schon seine ganze Geschichte, angefangen mit einem
Schlagstein, der als Prototyp für einen Hammer diente, über die Dampfmaschine, den Telegrafen, bis zu
Rechenmaschinen und Computern, hat man erst vor kurzem angefangen über die Technik systematisch
nachzudenken. Das mag daran liegen, dass die technische Entwicklung seit der Industrialisierung ganz neue
Maßstäbe angenommen hat. Eines der ersten Werke, das sich ausführlich mit dem Wesen der Technik
beschäftigt, ist wohl „Grundlinien einer Philosophie der Technik“ von Ernst Kapp aus dem Jahre
1877, „sein bis heute als grundlegendes Werk der Technikphilosophie geltendes Buch“.</p>
---
\section{Technik als Herausforderung für die Philosophie}
Eines der wichtigsten Merkmale unserer Zeit ist die Technisierung vieler Bereiche unseres alltäglichen
Lebens. „Das technische Zeitalter“ kann man über unsere Tage sagen hören. Als solche ist die
Technik nichts Neues, wenn auch die Technik des letzten Jahrhunderts ganz anderer Art, als das, was man
vorher kannte, ist. Es gibt sie dennoch mehr als hundert Jahre, vielleicht gab es sie schon immer. Vielleicht
ist die Fähigkeit, aus der Natur Erkenntnisse zu gewinnen und dann anhand derer etwas zu erfinden, etwas
was einen Menschen eigentlich ausmacht.
Desto interessanter wird es, über die Technik und Technisierung nachzudenken. Was ist sie nun?
Die Frage nach der Technik ist eine philosophische Frage, weil es vor allem die Philosophie ist, die
nach der Washeit der Dinge und der Möglichkeitsbedingungen fragt: Was ist der Mensch? Was macht einen
Menschen aus? Was ist und warum eigentlich Technik, was macht sie möglich?
Die philosophische Natur ist auch aus der Überlegung einsehbar, dass viele Fragen,
die mit der Technik verbunden sind, gar nicht durch das technische Denken selbst beantwortbar sind, sondern
einer Reflexion bedürfen, die über das Technische hinausgeht. Selbst wenn jemand behaupten würde, dass die
Technik nur aus sich heraus erklärt werden könne und müsse und keine weitere Rechtfertigung oder Würdigung
nötig habe, wäre das eine Behautpung, die die Grenzen des Technischen überschreitet.
Zwar begleiten die technischen Erfindungen den Menschen schon seine ganze Geschichte, angefangen mit einem
Schlagstein, der als Prototyp für einen Hammer diente, über die Dampfmaschine, den Telegrafen, bis zu
Rechenmaschinen und Computern, hat man erst vor kurzem angefangen über die Technik systematisch
nachzudenken. Das mag daran liegen, dass die technische Entwicklung seit der Industrialisierung ganz neue
Maßstäbe angenommen hat. Eines der ersten Werke, das sich ausführlich mit dem Wesen der Technik
beschäftigt, ist wohl „Grundlinien einer Philosophie der Technik“ von Ernst Kapp aus dem Jahre
1877, „sein bis heute als grundlegendes Werk der Technikphilosophie geltendes
Buch“\autocite[VIII]{maye:einleitung-kapp}.
140 Jahre sind seit dem Erscheinen des Buches vergangen und die Entwicklung bleibt nicht stehen. Und überhaupt
ist die rasche Entwicklung eines der wichtigsten Merkmale der heutigen Technisierung. Ältere Leute haben oft
Probleme mit dem Bedienen des Computers oder Handys, weil sie in einem ganz anderen Umfeld aufgewachsen sind und
das „Checken der E-Mails“ und die Abgabe der Steuererklärung online ihnen fremd ist.
Selbst Menschen, die sich beruflich mit den modernen Technologien beschäftigen, können die technische Entwicklung
nicht mehr einholen. In 90er-Jahren gab es noch den Begriff „Webmaster“. Ein Webmaster befasste sich
mit der Entwicklung, Gestaltung, Verwaltung von Websites. Heute wird der Begriff kaum noch verwendet.
Stattdessen gibt es Frontend- und Backend-Programmierer, Designer, SEO-Spezialisten (Search Engine
Optimization --- Suchmaschinenoptimierung), Server-Administratoren.
Man spricht noch vom „Full-stack developer“, darunter wird aber jemand verstanden, der sowohl
die Frontend- als auch Backend-Programmierung macht, es ist jedoch keineswegs der alles könnende Webmaster.
Die Fülle an Technologien und Aufgaben hat zur Spezialisierung und Auskristallisierung neuer Berufsfelder
geführt. Und dieser Prozess fand innerhalb einer Generation statt.
Auf der anderen Seite beschäftigt sich die Philosophie in meinem Verständnis mit den ewigen Fragen.
Die Umstände, der Kenntnisstand ändern sich, aber die Fragen nach dem, was das Sein ist, was die Erkenntnis
zu leisten vermag, wie der Mensch zu handeln hat, bleiben. Es wäre also nicht uninteressant zu schauen,
ob unsere Vorstellung von der Technik sich in hundert Jahren kardinal gewandelt hat, oder ob Kapp zu
Erkenntnissen gelangte, die auch noch für uns und vielleicht unsere Nachfahren nicht von einer bloß
geschichtlichen Bedeutung sind.
Kapp hat sein Werk so aufgebaut, dass er mit primitiven Werkzeugen anfängt und sich dann immer weiter zu
komplexeren Strukturen und Artefakten hocharbeitet. Dabei greift er fast in jedem Kapitel auf ein Produkt
aus der Geschichte der Technik, an dem er versucht, seine These plausibel zu machen. Ich wähle eine ähnliche
Vorgehensweise und werde mich bemühen, spätere Werke der Menschenhand im Lichte Kapps Auffassung des Menschen
und der Technik zu betrachten. Zunächst muss allerdings jene Auffassung kurz dargestellt werden.
\section{Technikkonzept von Ernst Kapp}
\epigraph{%
Noch steht die Menschheit in den Kinderschuhen ihrer Kultur oder in den Anfängen der technischen
Gleise, die sich der Geist selbst zu seinem Voranschreiten zu legen hat.\footcite[309]{kapp:technik}
}{}
\subsection{Technik und Kultur}
„Grundlinien einer Philosophie der Technik“ hat noch einen Untertitel: „Zur
Entstehungsgeschichte der Kultur aus neuen Gesichtspunkten“. Die Technik ist also nicht
bloß ein Mittel zum Zweck, sie hat etwas mit der Entstehung der Kultur zu tun. Wenn man bedenkt,
dass die Kultur ein Werk des menschlichen Schaffens ist, ist es auch verständlich, dass die Technik
ein Teil der Kultur ist. Technische Artefakte haben ihre eigene Geschichte und sie haben schon immer
die Lebensweise der Menschen stark beeinflusst. Man denke nur an den Buchdruck, der viel mehr Menschen
den Zugang zu Büchern ermöglichte, dadurch, dass die aufwendige Arbeit des Abschreibens von Maschinen
ersetzt werden konnte. Kapps Überzeugung ist aber, dass die Technik nicht ein Aspekt der Kultur ist,
sondern, dass sie konstituierend für das Entstehen der Kultur ist: „Der Anfang der Herstellung
technischer Gegenstände ist der Beginn des Kulturwesens Mensch.“\autocite[7]{leinenbach:technik}
Wie ist das zu verstehen? Klaus Kornwachs stellt erstmal fest, dass der Umgang mit der Technik nicht von
der Technik selbst vollständig determiniert ist, sondern dass „verschiedene Nationen und verschiedene
Kulturkreise unterschiedlich mit Technik umgehen und unterschiedliche Techniklinien und
Organisationsformen hervorgebracht und zuweilen auch wieder aufgelöst
haben“\autocite[22]{kornwachs:technik}.
Die Technik wird dadurch ermöglicht, dass der Mensch die Gesetze der Natur sich zunutze machen kann.
Die physikalischen Gesetze sind aber für alle gleich. Wie kommt es, dass verschiedene Zivilisationen
nicht die gleiche Technik bauen oder, dass sie die gleiche Technik nicht auf dieselbe Weise nutzen?
Um diese Frage zu beantworten, macht Kornwachs die Unterscheidung zwischen zwei Arten
technologischer Funktionalität. Die technologische Funktionalität der ersten Art ist diejenige,
„deren physikalische Wirksamkeit und technische Brauchbarkeit invariant gegenüber der
kulturellen Ausprägung der organisatorischen Hülle sind“\autocite[22]{kornwachs:technik}.
Als Beispiele nennt Kornwachs Regelkreise, Hebel, Kraftmaschinen usw.\autocite[Vgl.][22]{kornwachs:technik}
Was ist die organisatorische Hülle? „Die organisatorische Hülle einer Technik umfasst alle
Organisationsformen, die notwendig sind, um die Funktionalität eines technischen Artifakts überhaupt ins
Werk setzen zu können“\autocite[23]{kornwachs:technik}. Eben so eine organisatorische Hülle
„konstituiert \textit{eine technologische Funktion zweiter Art},
[\dots]“\autocite[23]{kornwachs:technik} Kornwachs erklärt diese am Beispiel eines Autos, dessen
„organisatorische Hülle das gesamte System vom Straßenverkehrsnetz über die Proliferationssysteme für
Treibstoff und Ersatzteile bis hin zu den rechtlichen Regelungen, [\dots],
[umfasst]“\autocite[23]{kornwachs:technik}.
Aber nicht nur die organisatorische Hülle regelt, wie die Technik eingesetzt wird; auch die Technik prägt
die organisatorischen Hüllen: „Es ist offenkundig, dass die organisatorische Umgestaltung unserer
Zivilisation durch die Informations- und Kommunikationstechnologien keine dieser organisatorischen
Hüllen unberührt lässt.“\autocite[23]{kornwachs:technik}
Die Kernthese der „Grundlinien einer Philosophie der Technik“ ist, dass es sich bei
allen technischen Gegenständen um die Projektion menschlicher Organe handelt. Selbst wenn der Mensch
keine tiefen Erkenntnisse über den Bau seines Körpers hat, projiziert er ihn unbewusst in die von ihm
gemachten Artefakte, „[i]st demnach der Vorderarm mit zur Faust geballter Hand oder mit deren
Verstärkung durch einen fassbaren Stein der natürliche Hammer, so ist der Stein mit einem Holzstiel
dessen einfachste künstliche Nachbildung“.\autocite[52]{kapp:technik} Es ist nicht ungewöhnlich,
zwischen der Technik und den menschlichen Organen und zwischen der Funktionsweise der Technik
und derselben des Organismus Analogien zu bilden. Genauso wie den Vorderarm mit zur Faust geballter Hand
kann man mit einem Hammer vergleichen, kann man zum Beispiel den Computer mit dem Gehirn vergleichen, weil
die Computer viele Operationen wie das Rechnen sogar viel effizienter als das menschliche
Gehirn durchführen können. Bei Kapp geht es aber nicht nur um Ähnlichkeiten und Analogien. Vielmehr
behauptet er, dass die Menschen ihren Organismus und seine Funktionen in die Technik projizieren, sodass
wenn der Organismus anders aufgebaut wäre, anders funktionieren würde, würde auch die Technik
ganz anders aussehen. Und das beansprucht er für alle technischen Gegenstände
ausnahmslos.\autocite[Vgl.][7]{leinenbach:technik}
\subsection{Selbsterkenntnis}
Die Organprojektion ist nicht nur der Gegenstand der Technikphilosophie, sondern auch der
Erkenntnistheorie. Die Produktion der Artefakte ist die Art und Weise, wie der Mensch die Natur
und sich selbst erkennt. Da der Mensch seinen Organismus in die Technik projiziert und die
Technik demzufolge Merkmale dieses Organismus hat, kann er aus der von ihm erschaffenen Technik
sich selbst erkennen. Ein Hammer sieht nicht nur äußerlich dem Arm ähnlich, er hat auch
strukturelle Ähnlichkeiten mit diesem. Ein Hammer besteht aus zwei Teilen: einem Stiel und
einem Kopf. Der untere Teil des Armes besteht genauso aus dem Unterarm, an den die Hand
angeschlossen ist. In der Technik erkennt man dann wieder die Eigenschaften, die man in sie
projiziert hat und erkennt auf diese Weise sich selbst. „Zentrum und Ziel allen Weltgeschehens
ist in Kapps Denken die stetig sich vergrößernde Selbsterkenntnis des Menschen. Die technischen
Artefakte sind Vehikel dieser Selbsterkenntnis: [\dots].“\autocite[36]{fohler:techniktheorien}
So wird der Mensch zum „Maß der Dinge“\autocite[Vgl.][73]{kapp:technik}, weil alles, was
er in die Welt setzt, aus ihm selbst entsprungen ist. Es gibt auch keine andere Quelle der
Erkenntnis als der Mensch selbst.\autocite[Vgl.][73]{kapp:technik}
\begin{quote}
Die Welt der Technik leitet demnach einen Selbstreflexionsprozeß ein, da sie zum einen
bestimmte Entwicklungsstufe des Menschen erfahrbar mache, zum anderen jedoch auch auf das verweise, was den
Menschen möglich sei.\autocite[10]{korte:kapp}
\end{quote}
Eine andere Komponente, die die Selbsterkenntnis kennzeichnet, ist die Sprache, weil „[d]ie Sprache
sagt, welche Dinge sind und was sie sind, [\dots]“\autocite[60]{kapp:technik}. Und sie ist auch ein
Produkt der Organprojektion. Kapp behauptet, dass die Bezeichnungen für die Gegenstände
aus der Tätigkeit der Organe entstanden seien. So habe das Wort \textit{Mühle}
seine Wurzel im indoeuropäischen \textit{mal} oder \textit{mar}, was soviel wie „mit den Fingern
zerreiben“ oder „mit den Zähnen zermalmen“ bedeutet
habe.\autocite[Vgl.][57\psq]{kapp:technik}
\subsection{Terminus „Technik“}
Hier wird es deutlich, dass es Kapp nicht bloß um den Einfluss der Technik auf die Kultur geht, vielmehr
ist die Technik dasjenige, was die gesamte menschliche Kultur bildet. „Die Technik ist das erste
Kulturereignis. Der Anfang der Herstellung technischer Gegenstände ist der Beginn des Kulturwesens
Mensch.“\autocite[7]{leinenbach:technik}
Um diese These zu verstehen, muss man untersuchen, was Kapp meint, wenn er das Wort
„Technik“ verwendet. Mit der Entwicklung der Technik entwickelt sie auch die
Sprache. Wenn ich heute „Technik“ sage, dann meine ich meistens Computertechnik
oder zumindest irgendeine Maschine, ein Auto, ein Lüftungssystem und dergleichen. Wenn ich über
Werkzeuge in meinem Werkzeugkasten spreche, dann sage ich nicht unbedingt „Technik“
von jenen, es sei denn ich habe elektrische Werkzeuge da, wie ein Elektroschrauber oder eine
Bohrmaschine. Es mag eine Zeit gegeben haben, in der eine Handsäge eine technische
Errungenschaft darstellte. Heute gehört sie aber mehr zur Klasse der Werkzeuge. Das heißt man
unterscheidet meistens in der heutigen Umgangssprache zwischen der Technik und den Werkzeugen.
Es ist überhaupt schwierig, eine Definition der Technik zu entwickeln, die man verwenden könnte,
um zwischen technischen Gegenständen und übrigen zu differenzieren. Ich habe vorher von
den von Menschenhand geschaffenen Gegenständen als von der Technik gesprochen. Aber zählt ein
gemaltes Bild zur Technik? Wohl eher nicht. Es ist Kunst. Ist ein technischer Gegenstand keine Kunst?
Man würde meinen: Nein. Der Ingenieur, der Monate verbracht hat, es zu entwerfen und zu konzipieren,
könnte dem widersprechen. Die Technik hat noch eine weitere Eigenschaft, dass sie einen Nutzen hat.
Allerdings auch die Kunst hat für viele Menschen einen ästhetischen Nutzen. Man kann den
„Begriff“ auf die eine oder andere Weise definieren, aber eine solche Definition wäre
meines Erachtens der Umgangssprache nicht gerecht und würde nicht alle Anwendungsfälle decken.
Wenn man zu diesem Begriff von einer anderen Seite kommt, kann man zwischen zwei Bedeutungen dessen
unterscheiden. Zu einem bezeichnet man Gegenstände als Technik: ein Videorecorder ist Technik, ein
Fernseher ist Technik. Zum anderen spricht man von erlernten Fähigkeiten als von den Techniken. In
diesem Sinne gibt es Maltechniken, Kampftechniken, Lerntechniken und andere Techniken. Der Begriff
hat also noch eine funktionale Seite.
Kapp hat diese Vielfalt des Technischen in seine Philosophie aufgenommen. Es war vorhin davon die
Rede, dass der Mensch seinen Organismus in die Technik projiziert, und bei den ersten Werkzeugen
sieht man gewisse Ähnlichkeit mit den Organen. Aber auch der Umstand, dass die Technik mit einer
Funktion verbunden ist (dass sie eine Fähigkeit bezeichnen kann), ist ihm nicht entgangen.
„An die Stelle der Ähnlichkeit, welche die äußere Gestalt der Organe des Menschen mit deren
gegenständlichen Projekten besitzt, tritt im Fortgang der Entwicklung technischer Gegenstände bis
hin zur Maschine vielmehr die Projektion des organischen
Funktionsbildes, [\dots]“\autocite[61]{leinenbach:technik} Man hat versucht Kapps Theorie
zu widerlegen, indem man nach Artefakten gesucht hat, die keine Ähnlichkeiten mit irgendeinem
Organ aufweisen: das Rad\autocite[Vgl.][84--86]{leinenbach:technik} oder das künstliche
Licht\autocite[Vgl.][88\psq]{leinenbach:technik}.
Das war auch für Kapp offensichtlich, dass nicht alle Werkzeuge und Maschinen äußere Ähnlichkeiten
aufweisen. Vielmehr entfernt sich die Technik im Prozess ihrer Entwicklung von ihrem
ursprünglichen Vorbild. Kapp spricht zum Beispiel von „vergeistigten“ Werkzeugen, die eher
den menschlichen Geist projizieren als seinen Körper. So heißt es von dem Werkzeug der Kommunikation,
der Sprache:
\begin{quote}
In der Sprache hört der Unterschied von Kunstwerk und Werkzeug, der sonst durchweg feststeht,
ganz auf. Indem sie erklärt, was sie selbst ist, übt sie gerade das aus, was sie erklären will. Mithin
ist sie das Werkzeug, sich als ihr eigenes Werkzeug zu begreifen, also ein vergeistigtes Werkzeug,
Spitze und Vermittlung zugleich der absoluten Selbstproduktion des Menschen.\autocite[248]{kapp:technik}
\end{quote}
Die „Spitze“ der Organprojektion sind gar nicht die technischen Artefakte, sondern der
gesamte kulturelle Reichtum, den der Mensch um sich schafft. Nur ist diese kulturelle Bereicherung
ohne Technik nicht möglich. Außer dass Kapp verschiedene Bedeutungen der Technik in seine Theorie
aufnimmt, breitet er diesen Begriff so weit aus, dass er auf jegliche Errungenschaft das Menschen
angewendet werden kann. Solche Verwendung des Begriffes „Technik“ mag zunächst
befremdend erscheinen, aber sie ist unserer Sprache auch nicht vollkommen fremd, denn wir
instrumentalisieren auch geistige Prozesse und sprechen von der Sprache als dem
\textit{Werkzeug} der Kommunikation oder der Logik als dem \textit{Werkzeug} des Denkens.
\subsection{Kapps Menschenbild}
Zwar projiziert sich der Mensch immer in die Technik, aber dieser Prozess wird nie abgeschlossen. Es
gibt immer eine unendliche Kluft zwischen der Natur und dem Mechanismus.
\begin{quote}
[\dots]; der Mechanismus, durch Zusammensetzung von außen zustande gebracht, ist eine „Mache“
der Menschenhand. Der Organismus ist wie die gesamte Welt \textit{natura}, ein Werdendes, der
Mechanismus ist das gemachte Fertige; dort ist Entwicklung und Leben, hier Komposition und
Lebloses.\autocite[68]{kapp:technik}
\end{quote}
Kapp ist kein Materialist und der Mensch ist für ihn kein rein materielles Wesen. Anstatt von der Materie
und dem Geist zu sprechen, spricht Kapp von der Psychologie und der Physiologie, zwei Gegensätze, die die
menschliche Natur in sich vereinigt. Allerdings ist auch keine Trennung dieser zwei Bestandteile möglich.
Man kann auch nicht sagen, dass das eine wichtiger oder wesentlicher wäre als das andere, wie es zum
Beispiel Descartes sieht\footcite[Vgl.][43]{geschichte1718}. Der Mensch ist nur als ein Ganzes möglich und
denkbar: „Psychologie und Physiologie haben lange genug fremd gegen einander getan,
[\dots]“\autocite[19]{kapp:technik}. Auch das kulturelle Gut und die Technik sind nicht sekundär,
obwohl es auf den ersten Blick scheint, als ob die menschliche Existenz auch ohne diese denkbar wäre,
weil sie erst ein Produkt seiner geistigen Aktivität sind. „Einerseits sollen die natürlichen
Organe das Vorbild aller mechanischen Objekte und Ensembles sein, andererseits lässt sich erst durch
deren Strukturen und Funktionen das Wesen der Organe
erkennen.“\autocite[XXXV-XXXVI]{maye:einleitung-kapp}
\subsection{Kritik}
Ganz am Anfang klingt Kapps Theorie sehr plausibel. Bei einfachen Werkzeugen kann man das sich sehr gut
vorstellen, dass der Mensch seine Organe als Muster für die Werkzeuge benutzt hat. Vor allem, weil die
eigene körperliche Kraft nicht ausgereicht hat, musste man einen Weg finden, zu kompensieren, anders
gesagt, man musste seine natürlichen Organe verlängern und verstärken.
Allerdings mit dem Fortschritt der Technologie, wenn die direkte Analogie zwischen dem Organ und
dem Produkt der Menschenhand zu schwanken beginnt, fällt es einem immer schwerer, an die
Organprojektion als eine universelle Theorie zu glauben.
Es liegt in der Natur des Menschen, seine Umwelt immer weiter zu gestalten, und seine Werkzeuge und
Maschinen weiter zu entwickeln. Und auch schwere Maschinen helfen dem Menschen, schwere Arbeiten
auszuführen, die er sonst mit seinen eigenen Organen verrichten sollte. Deswegen können auch sie
als Projektion menschlicher Organe und ihrer Funktionen betrachtet werden. Allerdings wenn Kapp
Beispiele wie „[d]as Netz der Blutgefäße als organisches Vorbild des
Eisenbahnsystems“\autocite[121]{kapp:technik} einführt, stellt sich die Frage, wie es zu
überprüfen ist. Kapp zwar besteht darauf, dass es nicht bloß das „Sinnbildliche der
Allegorie“ ist, sondern das „Sach- und Abbildliche der
Projektion“\autocite[Vgl.][129]{kapp:technik} und versucht das argumentativ
zu stützen\autocite[Vgl.][129--130]{kapp:technik}, seine Argumentation kann jedoch nicht als ein
handfester Beweis gelten.
Die Hauptschwäche dieser Theorie ist ihre Überprüfbarkeit. Ich kann höchstens auf bestimmte
Ereignisse oder Artefakte hinweisen und sie zum Vorteile der Theorie deuten, aber meine
Behauptung lässt sich nicht empirisch überprüfen. Ich kann nur versuchen sie plausibler als
die Alternativen zu machen. Vor allem geschieht die Organprojektion nach Kapp
\textit{unbewusst} und weist sich erst im Nachhinein als solche aus. Und um den Ursprung und
die Art unbewusster geistiger Vorgänge lässt sich nur spekulieren.
Des Weiteren war Kapp auf die Technik seiner Zeit beschränkt. Er konnte selbstverständlich
nicht voraussehen, welche Herausforderungen die künftige Technik mit sich bringt, und ob die
Theorie entsprechend angepasst werden soll. Der Glaube an den Menschen als ein einzigartiges
Geschöpf der Natur wird immer schwächer. Vielleicht ist er gar nicht so einzigartig, vielleicht
kann man ihn nachbauen, vielleicht kann man das, was in seinem Kopf vorgeht, auf eine Reihe
von Algorithmen reduzieren. Immer mehr Menschen glauben, dass es sehr bald möglich sein wird.
Für Kapp war der Mensch noch der einzige Schöpfer seiner Technik:
\begin{quote}
Niemals ist aber bei irgendeiner Maschine die Menschenhand völlig aus dem Spiele; denn auch
da wo ein Teil des Mechanismus sich gänzlich ablöst, wie der Pfeil, die Gewehrkugel, die dem
Schiffbrüchigen die rettende Leine überbringende Rakete, ist die Abweichung nur vorübergehend und
scheinbar.\autocite[64\psq]{kapp:technik}
\end{quote}
Die Technik, die immer menschlicher wird, macht darüber nachdenklich, ob der Mensch diesen Status
für die gesamte Zeit seiner Geschichte behalten kann. Andererseits das Sprechen über die Maschinen,
die man von einem Menschen nicht mehr unterscheiden kann, ist auch nur noch eine Spekulation. Und
es ist meines Erachtens noch zu früh, sie als ein Argument gegen Kapps Ansichten auszuspielen.
Schließlich hat auch die höchste entwickelte Technik ihren Ursprung im Menschen und ist Folge
seiner Leistung, wie es Kapp auch sagt. Das heißt, wenn eine Maschine ohne menschliche
Teilnahme andere Maschinen produzieren kann, so wurde sie so konstruiert, um diese Aufgabe
zu erfüllen. Es wird inzwischen über die Maschinen spekuliert, die auch geistige Leistungen
des Menschen übernehmen können, die zum Beispiel selbst programmieren können, und so andere
Maschinen hervorbringen, die nicht nur nach einem bestimmten Plan konstruiert sind, sondern
tatsächlich neue Technik darstellen. Aber selbst in diesem Fall soll solche Intelligenz erstmal
künstlich geschaffen werden, sie würde ihre Existenz immer noch dem Menschen verdanken. Das ist,
denke ich, die Tatsache, auf die Kapp hinweisen wollte.
Man darf auch nicht vergessen, dass obwohl wir Technik bauen und verwenden, darüber zu
reflektieren, warum wir sie eigentlich brauchen und warum wir so bauen, wie wir sie bauen, keine
einfache Aufgabe ist, die lückenlos gelöst werden kann. Deswegen verdient Kapps
Theorie Aufmerksamkeit als ein möglicher Lösungsansatz.
\subsection{Kapps Technikphilosophie in Anwendung auf die nachfolgende Geschichte der Technik}
Das Kapitel, in dem Harald Leinenbach über die Rezeptionsgeschichte der Organprojektionstheorie spricht,
nennt er „Die Grundlinien einer Philosophie der Technik“
„Kapps mystisches Blendwerk“\autocite[60]{leinenbach:technik}, womit er andeuten will,
wie das Werk meistens rezipiert wurde.
„Dabei finden sich Erwähnungen der Organprojetionstheorie meist bloß in knappen
Randbemerkungen. Kapps Technikphilosophie ist nirgends aufgenommen, geschweige denn konstruktiv
weitergeführt worden.“\autocite[61]{leinenbach:technik} Als Grund gibt Leinenbach an, dass
Kapp von seinen Gegnern immer missverstanden wurde, dass man seine Theorie nicht zu Ende denkt, sondern
sich „hauptsächlich am Organprojektionsstatus der technischen
Gegenstände“\autocite[60\psq]{leinenbach:technik} aufhält, und
sobald man eine Maschine findet, die äußerlich dem menschlichen Organismus nicht ähnlich ist, hört
man auf und lehnt die Theorie als unzureichend ab. Dazu kommen noch Begriffe wie das Unbewusste, mit
denen Kapp gearbeitet hat.\autocite[Vgl.][64]{leinenbach:technik} Besonders in der Zeit, in der die
Künstliche Intelligenz entwickelt wird, scheint die Hoffnung zu wachsen, das Unbewusste aus der Welt
zu schaffen, und alles Menschliche ohne Rest technisch reproduzieren zu können.

View File

@@ -0,0 +1,30 @@
---
layout: post
date: 2017-07-22 19:51:00
tags: Gedicht
title: Du bist von anderen umringt…
teaser: |
<p>
Du bist von anderen umringt;<br>
Ich weiß, mein Weg ist nicht so eben.<br>
Wenn man sich auf ihn begibt,<br>
liegen rum nur laute Scherben.
</p>
<p>
Er führt uns trotzdem zum Altar<br>
und entfernt das letzte Siegel,<br>
dass nichts im All ein Zufall war,<br>
und dass das Sein den Tod besiege.
</p>
---
\textit{Katja M. S. B.}
Du bist von anderen umringt;\\
Ich weiß, mein Weg ist nicht so eben.\\
Wenn man sich auf ihn begibt,\\
liegen rum nur laute Scherben.
Er führt uns trotzdem zum Altar\\
und entfernt das letzte Siegel,\\
dass nichts im All ein Zufall war,\\
und dass das Sein den Tod besiege.

View File

@@ -0,0 +1,13 @@
---
layout: post
date: 2017-07-01 09:14:00
tags: Gedicht
title: Ehe für alle
teaser: |
<p>
„Ehe für alle!“ - heuchelte der Wind,<br>
wo nämlich Scheidungen in Mode sind.
</p>
---
„Ehe für alle!“ — heuchelte der Wind,\\
wo nämlich Scheidungen in Mode sind.

View File

@@ -0,0 +1,770 @@
---
layout: post
date: 2017-10-01 00:00:00
tags: Aufsatz
title: Was ist Technik? Eine Auseinandersetzung mit dem Technikkonzept von Ernst Kapp
teaser:
<p>Im vorliegenden Artikel geht es um die Anwendung des Technikkonzepts von Ernst Kapp auf die
heutige Technik. Eines der Gebiete, dessen Entwicklung für die Moderne unentbehrlich ist, ist die
Computertechnik. Wobei ich einen breit gefächerten Computerbegriff benutzen möchte.
Computer werden immer universeller und können immer mehr Aufgaben ausführen, deswegen sind sie bereits
ein Teil vieler Bereiche unseres Daseins. Sie werden vorprogrammiert, um anhand gegebener Daten bestimmte
Aktionen auszuführen. In diesem Sinne ist nicht nur ein Laptop ein Computer, sondern auch ein Handy;
genauso ist ein Roboter ein komplexer Computer.</p>
---
Im vorliegenden Artikel geht es um die Anwendung des Technikkonzepts von Ernst Kapp auf die
heutige Technik. Eines der Gebiete, dessen Entwicklung für die Moderne unentbehrlich ist, ist die
Computertechnik. Wobei ich einen breit gefächerten Computerbegriff benutzen möchte.
Computer werden immer universeller und können immer mehr Aufgaben ausführen, deswegen sind sie bereits
ein Teil vieler Bereiche unseres Daseins. Sie werden vorprogrammiert, um anhand gegebener Daten bestimmte
Aktionen auszuführen. In diesem Sinne ist nicht nur ein Laptop ein Computer, sondern auch ein Handy;
genauso ist ein Roboter ein komplexer Computer.
\section{Datenverarbeitung. Mensch und Maschine}
Ein Computer ist vor allem ein Rechner. Es kommt einem so vor, als ob die Computer ganz
verschiedene Informationsarten verwalten, bearbeiten und speichern können: Text, Musik, Bilder.
\begin{quote}
Trotzdem ist ein Computer ein Gerät, das Probleme durch Berechnungen löst: Er kann nur
diejenigen Sachverhalte „verstehen“, die man in Form von Zahlen und mathematischen
Formeln darstellen kann. Dass es sich dabei heute auch um Bilder, Töne, Animationen, 3-D-Welten
oder Filme handeln kann, liegt einfach an der enormen Rechengeschwindigkeit und Kapazität moderner
Rechner.\autocite[35]{kersken:fachinformatiker}
\end{quote}
Natürlich ist das nicht die grundlegendste Ebene:
der Arbeitsspeicher und Prozessor wissen nichts von den Zahlen und der Arithmetik, aber die Mathematik ist
trotzdem von fundamentaler Bedeutung für die logische Funktionsweise von Programmen.
\subsection{Darstellung der Daten im Computer. Zahlensysteme und das Zählen}
Wenn man einen Text, ein Musikstück oder ein Bild speichern will, werden sie als eine Zahlenfolge
interpretiert, und nicht eine Folge von Buchstaben, Noten oder Farben, wie sie für den Menschen
erscheinen. Ein wichtiger Unterschied zum vom Menschen eingesetzten dezimalen Zahlensystem ist, dass
für das Programmieren der Computer ein binäres Zahlensystem verwendet wird. Für das Rechnen verwenden
wir ein Zahlensystem mit 10 Ziffern, von 0 bis 10, daher der Name „dezimal“. Das binäre
Zahlensystem hat nur 2 Ziffern: 0 und 1, funktioniert aber wie ein dezimales oder jedes andere
Zahlensystem, und lässt sich in jedes andere Zahlensystem übersetzen. Beim Zählen um eine Nummer
größer als 9 zu erzeugen, setzt man sie aus mehreren Ziffern zusammen.
\noindent\begin{tabular}{cccccccccc}
\addlinespace[2em]
\toprule
& \multicolumn{9}{l}{\textbf{Ziffern des Dezimalsystems}} \\
\midrule
0 & 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 \\
\bottomrule
\addlinespace
\end{tabular}
\noindent\begin{tabular}{cc}
\addlinespace[2em]
\toprule
& \textbf{Ziffern des Binärsystems} \\
\midrule
0 & 1 \\
\bottomrule
\addlinespace[2em]
\end{tabular}
Im binären Zahlensystem ist es genauso mit dem Unterschied, dass die zusammengesetzten Nummern
bereits nach 1 folgt, weil es keine 2 gibt, so zählt man folgendermaßen: 0, 1, 10, 11, 100, 101, 110,
111 und so weiter. Jeder Zahl in dieser Folge kann man eine dezimale Zahl zuordnen: 0 ist 0, 1 ist 1,
10 ist 2, 11 ist 3, 100 ist 4 und so weiter.
\noindent\begin{tabular}{lcccccccccc}
\addlinespace[2em]
\toprule
& \multicolumn{9}{c}{\textbf{Zuordnung}} \\
\midrule
Dezimal & 0 & 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 \\
\midrule
Binär & 0 & 1 & 10 & 11 & 100 & 101 & 110 & 111 & 1000 \\
\bottomrule
\toprule
Dezimal & 9 & 10 & 11 & 12 & 13 & 14 & 15 & 16 & 17 \\
\midrule
Binär & 1001 & 1010 & 1011 & 1100 & 1101 & 1110 & 1111 & 10000 & 10001 \\
\bottomrule
\addlinespace[2em]
\end{tabular}
Das dezimale Zahlensystem ist kaum etwas
Eingeborenes, wir hätten auch binär, oktal oder hexadezimal rechnen können, aber die Wahl des
Zahlensystems ist auch nicht zufällig. Kapp argumentiert, dass der Wahl des Zahlensystems die Tatsache
zugrunde liegt, dass Menschen ihre Finger zum Zählen verwendeten und auch bis heute verwenden:
\begin{quote}
Der Ausdruck für die Menge der Maßeinheiten derselben Art, die \textit{Zahl}, wurde, wie noch heute zur
Unterstützung des Zählens geschieht, an den fünf Fingern abgezählt. Das griechische Wort für dieses Zählen
nach Fünfen war \textgreek{πεµπάζειν}, „fünfern“. Die zehn Finger lieferten das Dezimalsystem
und die zehn Finger mit Zugabe der beiden Hände des Duodezimalsystem.\autocite[75]{kapp:technik}
\end{quote}
Das heißt, man hat die Besonderheit seines Organismus verwendet, um sich das Zählen beizubringen. Beim
Entwickeln der Computertechnik hat man auf ein gut vertrautes System zurückgegriffen und es nur
entsprechend modifziert. Die Hardware hat keine Finger, aber dafür elektronische Schaltungen, die zwei
Zustände haben können: „Ein“ und „Aus“, die den beiden Ziffern des binären
Zahlensystems entsprechen. „Die grundlegenden Funktionen, die im Computer stattfinden, lassen
sich sehr leicht als elektrische Schaltpläne darstellen.“\autocite[85]{kersken:fachinformatiker}
\vspace{2em}
\noindent\begin{minipage}{.30\linewidth}
\begin{tabular}{ccc}
\toprule
1 & 2 & Oder \\
\midrule
0 & 0 & 0 \\
\midrule
0 & 1 & 1 \\
\midrule
1 & 0 & 1 \\
\midrule
1 & 1 & 1 \\
\bottomrule
\end{tabular}
\end{minipage}
\begin{minipage}{.65\linewidth}
\centering
\includegraphics[scale=0.5]{/assets/images/was-ist-technik/or.png}
\captionof{figure}[Logisches Oder durch einfache Schalter]{%
Logisches Oder durch einfache Schalter\autocite[86]{kersken:fachinformatiker}
}
\end{minipage}
\vspace{2em}
\noindent\begin{minipage}{.30\linewidth}
\begin{tabular}{ccc}
\toprule
1 & 2 & Und \\
\midrule
0 & 0 & 0 \\
\midrule
0 & 1 & 0 \\
\midrule
1 & 0 & 0 \\
\midrule
1 & 1 & 1 \\
\bottomrule
\end{tabular}
\end{minipage}
\begin{minipage}{.65\linewidth}
\centering
\includegraphics[scale=0.5]{/assets/images/was-ist-technik/and.png}
\captionof{figure}[Logisches Und durch einfache Schalter]{%
Logisches Und durch einfache Schalter\autocite[86]{kersken:fachinformatiker}
}
\end{minipage}
\vspace{2em}
0 und 1 lassen sich also in eine für die Hardware verständliche Sprache übersetzen. Größere Zahlen
bekommt man, wenn man mehrere Nullen und Einsen zusammensetzt, genauso wie man es vom Dezimalsystem kennt.
Es bleibt herauszufinden, wie man andere Informationen umwandeln kann.
Für einen Text ist es relativ einfach. Genauso wie in der Cäsar-Verschlüsselung kann man jedem Zeichen
eine Zahl zuordnen. Es gibt deswegen sogenannte Kodierungen, Tabellen, die die Konvertierung zwischen
den Zahlen und den Zeichen einer Schriftsprache ermöglichen. Eine der ältesten Kodierungen, die aber
für die moderne Verhältnisse oft nicht mehr ausreicht, ist ASCII\@. Sie besteht aus 128 Zeichen, darunter
sind sowohl die Buchstaben des lateinischen Alphabets (groß und klein separat), als auch Satzzeichen
(Punkt, Komma und so weiter), als auch solche wie das Leerzeichen oder der Zeilenumbruch. Da man
sehr bald einsehen musste, dass man vielmehr Zeichen braucht, um nicht englische Texte kodieren
zu können, sind weitere Zeichenkodierungen entstanden wie UTF-8, UTF-16 oder UTF-32, wobei es auch
viele anderen gibt (windows-1251, koi8-r und so weiter).
\noindent\begin{tabular}{cccccccccccccccc}
\addlinespace[2em]
\toprule
\multicolumn{16}{c}{\textbf{ASCII}} \\
\toprule
97 & 98 & 99 & 100 & 101 & 102 & 103 & 104 & 105 & 106 & 107 & 108 & 109 & 110 & 111 & \dots \\
\midrule
0 & 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 & \@: & \@; & < & = & > & \dots \\
\bottomrule
\midrule
65 & 66 & 67 & 68 & 69 & 70 & 71 & 72 & 73 & 74 & 75 & 76 & 77 & 78 & 79 & \dots \\
\midrule
A & B & C & D & E & F & G & H & I & J & K & L & M & N & O & \dots \\
\bottomrule
\toprule
97 & 98 & 99 & 100 & 101 & 102 & 103 & 104 & 105 & 106 & 107 & 108 & 109 & 110 & 111 & \dots \\
\midrule
a & b & c & d & e & f & g & h & i & j & k & l & m & n & o & \dots \\
\bottomrule
\addlinespace[2em]
\end{tabular}
Darstellung der Graphik ist recht ähnlich. Zunächst muss man ein Bild in die einzelnen
„Buchstaben“ zerlegen. Im Falle der Graphik nennt man so einen „Buchstaben“
ein \textit{Pixel}. Ein Pixel ist ein Bildpunkt. Die Pixel sind so klein, dass das menschliche
Auge gar nicht merkt, dass ein Bild aus sehr vielen Pixeln zusammengesetzt wird, obwohl vor 30
Jahren auf den alten Bildschirmen das noch zu sehen war. Da jedes Pixel eine eigene Farbe haben
kann, muss jeder Farbe eine Zahl zugeordnet werden, die die jeweilige Farbe repräsentieren würde.
Deswegen gibt es auch hier etwas etwas, was den Kodierungen der Buchstaben entpricht: Farbmodelle.
Eines der am meistverbreiteten ist RGB (\textbf{R}ed, \textbf{G}reen, \textbf{B}lue).
Die Farben entstehen aus Mischung der drei Grundfarben: Rot, Grün und Blau. Jeder der Grundfarben
wird eine Zahl von 0 bis 255 zugeordnet, die der Intensivität der jeweiligen Farbe entspricht. Und
man kann dann im Endeffekt jede Farbe als drei Zahlen jeweils von 0 bis 255 kodieren. Schwarz ist zum
Beispiel [0, 0, 0] (alle Farben fehlen), Rot ist [255, 0, 0] (Rot hat den maximalen Wert, die anderen
Farben sind nicht vorhanden), Gelb: [0, 255, 255] (Rot ist nicht vorhanden, Grün und Blau haben den
maximalen Wert). Auch hier gilt es, dass es noch weitere Farbmodelle gibt, zum Beispiel
\textit{CMYK}.
\noindent\begin{tabular}{ccccc}
\addlinespace[2em]
\toprule
Rot & Grün & Blau & Schwarz & Weiß \\
\midrule
(255, 0, 0) & (0, 255, 0) & (0, 0, 255) & (0, 0, 0) & (255, 255, 255) \\
\bottomrule
\toprule
Gelb & Pink & Dunkelgrün & Orange & Grau \\
\midrule
(0, 255, 255) & (255, 192, 203) & (0, 100, 0) & (255, 165, 0) & (190, 190, 190) \\
\bottomrule
\addlinespace[2em]
\end{tabular}
Die Übersetzung der Informationen, Wahrnehmungen in eine für den Computer verständliche Form (in die
digitale Form) heißt Digitalisierung. Dementsprechend, wenn man ein Ereignis mit einer Digitalkamera
aufnimmt, wird die Aufname digitalisiert.
\begin{quote}
In der Natur liegen alle Informationen zunächst in analoger Form vor: Das Bild, das Sie sehen,
oder der Ton, den Sie hören, besitzt prinzipiell keine kleinste Informationseinheit oder Auflösung.
Mit dieser Art von Informationen kann ein Computer heutiger Bauart nichts anfangen. Die besonderen
Eigenschaften der Elektronik haben dazu geführt, dass Computer digital entworfen wurden.
„Digital“ stammt vom englischen Wort \textit{digit} („Ziffer“); dieses Wort
ist wiederum vom lateinischen \textit{digitus} („Finger“) abgeleitet, da die Finger von
jeher zum Zählen eingesetzt wurden.\autocite[52]{kersken:fachinformatiker}
\end{quote}
Es gibt mindestens einen sprachlichen Zusammenhang zwischen dem Zählen, das nach Kapp eines der Produkte
der Organprojektion ist, und der digitalen Technik. Wenn man aus dem Fenster schaut, zählt man nicht die
einzelnen Farben und unterteilt nicht das Gesehene in die kleinsten Bestandteile. Es ist nicht bekannt, ob
die Natur überhaupt in die kleinsten Bausteine zerlegt werden kann. Es gibt auch eine Reihe von Emergenztheorien,
die behaupten, dass die Natur mehr ist, als die Summe ihrer Teile.
Von der Emergenz spricht man, wenn auf höheren Ebenen der Entwicklung Eigenschaften entstehen, die auf
niedrigieren Ebenen nicht vorhanden waren und die nicht auf etwas noch grundlegenderes reduzierbar sind.
\begin{quote}
Leben etwa ist eine emergente Eigenschaft der Zelle, nicht aber ihrer Moleküle; Bewusstsein ist
eine emergente Eigenschaft von Organismen mit hoch entwickeltem Zentralnervensystem; Freiheit ist eine
emergente Eigenschaft des menschlichen Organismus. Die einfacheren Lebensformen bilden zwar die Grundlage
für die komplexeren; doch mit jedem Zusammenschluss zu einem neuen System entstehen auch qualitativ neue
Eigenschaften, die es bei den vorangehenden Stufen noch nicht gab.“\autocite[93]{kather:leben}
\end{quote}
Wir nehmen solche Systeme als eine Ganzheit wahr. Ein schöner Baum vermittelt uns kein
ästhetisches Gefühl mehr, wenn er in Moleküle oder Atome zerlegt wird. Computer degegen, um solche
Eindrücke verarbeiten und speichern zu können, zerlegen sie sie in Informationseinheiten. Damit das Bild
eines Baumes auf meiner Festplatte gespeichert werden kann, muss es in möglichst kleine Punkte,
von denen jedem eine Farbe zugeordnet wird, zerlegt werden, diese Bildpunkte oder Pixel müssen dann abgezählt
werden und dann können sie gespeichert werden. Deswegen macht die Abstammung des Wortes
„Digitalisierung“ vom „Finger“ als dem Organ, das beim Zählen
Abhilfe schuf, immer noch Sinn: Bei der Digitalisierung werden die Elemente, zum Beispiel eines Bildes,
abgezählt, weil nur eine endliche Anzahl von Elementen aufgenommen werden kann, und dann gespeichert.
Andererseits, obwohl wir unsere Umwelt als eine Ganzheit wahrnehmen, besteht die Natur aus kleineren
Bausteinen. Der menschliche Körper besteht aus Molekülen, Atomen, Elementarteilchen. Und genauso hat
man die Welt der Informationstechnologien aufgebaut. Es gibt immer eine Informationseinheit (ein
Buchstabe, ein Pixel), aus deren Zusammenstellung ein komplexeres Gebilde entsteht (ein Text oder ein
Bild). Wie ein Atom aus Protonen, Neutronen und Elektronen besteht, können auch solche
„Informationseinheiten“ weiter zerlegt werden. Der Buchstabe „A“ des lateinischen
Alphabets hat den ASCII-Code 65. 65 ist größer als 1, ist also nicht direkt repräsentierbar. In der
binären Darstellung enspricht der Zahl 65, die Zahl 0100 0001. 0 oder 1 in dieser Folge heißen ein
\textit{Bit}. Eine Folge aus 8 Bits ist ein \textit{Byte}. Ein Bit ist die kleinste Einheit für den
Computer. Man braucht also ein Byte, um 65 oder „A“ speichern zu können. Und dieses Byte ist
in noch kleinere „Elementarteilchen“, Bits, zerlegbar. Wenn die Technik in der Tat die
unbewusste Projektion des menschlichen Organismus sein soll, dann ist die Art, wie die Verarbeitung der
Daten im Computer abläuft, noch ein Beleg dafür.
Der Organprojektion verdankt man nach Kapp die Fähigkeit zu zählen. Diese Fähigkeit hat dem Menschen
ermöglicht die Welt zu ermessen. Man hat gelernt Gewicht und Abstand zu messen. Mit der Einführung des
Geldes kann man den Reichtum messen. Und heute kann man auch Informationen messen. Für das Messen
des Abstandes wurden Einheiten eingeführt wie Millimeter, Zentimeter, Meter oder Kilometer; für diese
des Gewichtes --- Gramme und Kilogramme. Um die Informationen digital darstellen zu können, müssen
sie auch messbar sein. Die kleinste Informationseinheit ist ein Bit. Mit einem Bit ist nur ein 0 oder
1 darstellbar. Eine Folge aus 8 Bits ist ein Byte. 1000 Bytes (B) sind ein Kilobyte. 1000 Kilobytes (KB)
sind ein Megabyte (MB). Es gibt dann Gigabytes (GB), Terrabytes (TB), Petabytes (PB) und so weiter. Es
gibt auch Masseinheiten die auf Besonderheit der Computer-Technik abgestimmt und vom binären
Zahlensystem abgeleitet sind: 1 Kibibyte (KiB) = 1024 (2$^{10}$) Byte, 1 Mebibyte (MiB) = 1024 KiB und
so weiter. Aber die Grundlage bleibt immer dieselbe: Man hat ein Zahlensystem, das dazu verhilft, die
Information „abzählbar“ zu machen, damit man sie digital verarbeiten kann.
\subsection{Alte Prinzipien im Lichte der neuen Technik}
Maßeinheiten, Zahlen, Zahlensysteme kannte man vor der Elektrotechnik. Mit der Entwicklung der Technik
hat man nur gelernt, sie anders einzusetzen. Das kann einerseits rechtfertigen, dass die
Spekulationen der Technikphilosophie nicht vergänglich sind, dass sie mit dem Fortschritt der Technik
nicht notwendig veraltet werden. Andererseits kann es auch für die Organprojektion sprechen, weil
der eigene Organismus dasjenige ist, was den Menschen durch seine Geschichte begleitet hat, sodass
die Erkenntnisse, die er aus seinem Organismus gewonnen hat, bestehen bleiben und nur erweitert,
korrigiert und neu angewendet werden.
Auch von der Möglichkeit, Texte zu „digitalisieren“, konnte man sehr früh Gebrauch machen,
und zwar im Zusammenhang mit der Kryptographie, das heißt der Verschlüsselung und Entschlüsselung von Daten.
Den Bedarf, Nachrichten verschlüsselt zu verschicken, gibt es wohl mindestens so lange, wie es Kriege gibt.
Eines der ältesten Verschlüsselungsverfahren wird Cäsar zugeschrieben:
\begin{quote}
Julius Caesar is credited with perhaps the oldest known symmetric cipher algorithm. The so-called
\textit{Caesar cipher} --- [\dots] --- assigns each letter, at random, to a number.
This mapping of letters to numbers is the key in this simple algorithm.\autocite[30\psq]{davies:tls}
\end{quote}
Was sich in den letzten Jahren geändert hat, ist, dass die Kryptographie nicht nur für bestimmte Gruppen
(wie die Militär) interessant ist. Wenn man die Website seiner Bank, ein soziales Netzwerk oder seine
Lieblingssuchmaschine besucht, werden die eingegebenen Daten verschlüsselt vor dem Versenden und dann am
anderen Ende, vom Empfänger (der Bank, dem sozialen Netzwerk oder der Suchmaschine), entschlüsselt.
Bei der Cäsar-Verschlüsselung wird jeder Buchstabe eines geordneten Alphabets um mehrere Positionen nach
rechts verschoben. „Verschieben“ heißt, einen Buchstaben mit einem anderen zu ersetzen,
der $n$ Positionen weiter vorkommt. $n$ heißt dann \textit{Schlüssel} (\textit{key}). Zum Beispiel, wenn
jedes Zeichen des Klartextes um 2 Positionen nach rechts verschoben werden muss, wird \textit{A}
zu \textit{C}, \textit{B} zu \textit{D}, \textit{Z} zu \textit{B} usw. Um den Text dann wieder zu
entschlüsseln, muss man die Anzahl der Positionen kennen, um die jedes Zeichen verschoben wurde,
damit man das rückgängig machen kann (also um $n$ \textbf{nach links} verschieben). Dies ist
ein \textit{symmetrischer} Algorithmus, weil für die Verschlüsselung und die Entschlüsselung derselbe
Schlüssel $n$ verwendet wird: Bei der Verschlüsselung muss man um $n$ Positionen nach rechts verschieben,
bei der Entschlüsselung --- um $n$ Positionen nach links.
Symmetrische Kyptographie wird immer noch weit eingesetzt. Wenn auch die modernen Algorithmen (Data Encryption
Standard, Advanced Encryption Standard u.Ä.\autocite[Vgl.][30\psqq]{davies:tls}) etwas komplexer
sind, funktionieren sie sehr ähnlich:
\begin{quote}
With symmetric cryptography algorithms, the same key is used both for encryption and decryption. In some
cases, the algorithm is different, with decryption „undoing“ what encryption did. In other
cases, the algorithm is designed so that the same set of operations, applied twice successively, cycle
back to produce the same result: [\dots].\autocite[30]{davies:tls}
\end{quote}
Das heißt die Computerindustrie hat unsere Denkweise nicht kardinal geändert. Man hat mit der Technik nicht
eine komplett neue Welt erschaffen, sondern man hat nach Wegen gesucht, erpobte Vorgehensweisen auf die neue
Technik anzuwenden. Für die Techniktheorien, wie die von Kapp, kann es bedeuten, dass sie nicht komplett
von der zu jeweiliger Zeit vorhandenen Technik abhängig. Ein vor Jahrtausenden entwickeltes
Verschlüsselungskonzept findet immer noch Anwendung unter ganz anderen Bedingungen. Natürlich kann die
Cäsar-Verschlüsselung nicht mehr eingesetzt werden, sie ist anfällig für die sogenannten
„Brute-Force-Angriffe“: Ausprobieren aller möglichen Kombinationen oder Schlüssel. Für einen
deutschen Text gibt es höchstens 30 Schlüssel, die man ausprobieren soll, um einen Text zu entschlüsseln
(wenn man annimmt, dass das deutsche Alphabet 30 Buchstaben hat). Ein moderner Rechner kann diese Aufgabe
in Sekunden lösen. Deswegen wurden Algorithmen entwickelt, die auch von einem Computer nicht so einfach
rückängig zu machen sind, wenn man den Geheimschlüssel nicht kennt. Sie basieren aber auf derselben Grundlage
und auch die kann man theoretisch durch das Ausprobieren aller möglichen Schlüssel umgehen, nur dass es
auch für leistungstärkste Rechner Jahre und Jahrzehnte in Anspruch nehmen würde, dies durchzuführen.
\subsection{Eric Kandel. „Auf der Suche nach dem Gedächtnis“}
Wenn man eine Stufe tiefer geht und die Computertechnik auf der mechanischen Ebene betrachtet, findet
man noch weitere Argumente für Kapps These.
Bei einer oberflächlichen Betrachtung fällt einem sofort auf, dass die Computer komplexe Maschinen sind,
die aus mehreren Bauteilen bestehen.
\begin{quote}
Die Hardware besteht grundsätzlich aus Zentraleinheit und Peripherie. Zur Zentraleinheit zählen vor
allem der Mikroprozessor, der Arbeitsspeicher (RAM), die verschiedenen Bus- und Anschlusssysteme sowie
das BIOS\@. Zur Peripherie gehören sämtliche Bauteile, die zusätzlich an die Zentraleinheit angeschlossen
werden; sie dienen der Ein- und Ausgabe sowie der dauerhaften Speicherung von
Daten.\autocite[115\psq]{kersken:fachinformatiker}
\end{quote}
Der menschliche Organismus hat auch eine „Peripherie“, zu der die „Bauteile“ gehören,
die der „Ein- und Ausgabe“ dienen. Ein Eingabegerät eines Rechners ist zum Beispiel eine
Tastatur oder Maus. Man tippt etwas ein, die Informationen werden an die Zentraleinheit weitergeleitet
und dort verarbeitet. „Eingabegeräte“ des menschlichen Körpers sind seine Sinnesorgane, unter
anderem seine Augen und Ohren. Man nimmt die Informationen aus der Außenwelt auf und sie werden zu seiner
„Zentraleinheit“ weitergeleitet und dort verarbeitet. Zu Ausgabegeräten zählen
der Bildschirm und die Lautsprecher. Das „Ausgabegerät“ des Menschen ist
beispielsweise sein Mundwerk.
Zur Zentraleinheit gehört der Mikroprozessor (Central Processing Unit, kurz
CPU)\autocite[Vgl.][119]{kersken:fachinformatiker},
„das eigentliche Herzstück des Computers, das für die Ausführung der Programme sowie für die
zentrale Steuerung und Verwaltung der Hardware zuständig
ist.“\autocite[119]{kersken:fachinformatiker} Das, was für die Maschine der Mikroprozessor ist, ist für
den Menschen sein Gehirn: „[\dots] alle Zellen [haben] spezialisierte Funktionen. Leberzellen
beispielsweise führen Verdauungsaktivitäten aus, während Gehirnzellen über bestimmte Mittel verfügen,
Informationen zu verarbeiten und miteinander zu kommunizieren.“\autocite[74]{kandel:gedaechtnis}
Der menschliche Körper besteht also aus verschiedenartigen Zellen, die für bestimmte Aufgaben zuständig
sind. Man kann auch ein ähnliches Aufbaukonzept bei einem Rechner beobachten. Abgesehen vom Mikroprozessor
kann er auch weitere Bestandteile wie die Grafikkarte oder Audiokarte, die zur Peripherie gehören, oder
der Arbeitsspeicher, der ein Teil der Zentreinheit ist, haben.\autocite[Vgl.][120]{kersken:fachinformatiker}
Und diese Bestandteile haben auch ihre spezifischen Funktionen, wie die Video- oder Audioverarbeitung.
Der Mikroprozessor ist allerdings das „Gehirn“ eines Rechners. Man kann sich einen Desktop-PC
ohne eine Grafikkarte (der also nichts auf den Bildschirm ausgeben kann) kaum vorstellen. Es gibt
aber auch die sogenannten Server, Computer, die bestimmte Dienste anbieten. Zum Beispiel, wenn man eine
Webseite besucht, stellt man hinter den Kulissen eine Anfrage zu einem entfernten Computer, auf dem die
Webseiteninhalte gespeichert sind. So ein Computer ist ein Beispiel eines Servers. Und solche
Serversysteme bedürfen oftmals keine Bildschirmausgabe, ihre Aufgabe ist schlicht, die Anfragen der
Benutzer anzunehmen, die richtigen Inhalte entsprechend der Anfrage auszusuchen und sie an den
Besucher der Webseite schicken, damit er sie auf \textit{seinem} Bildschirm sehen kann. Wenn ein
menschliches Organ „defekt“ ist, seine Funktionen nicht mehr vollständig ausführen kann, dann
führt es zu Einschränkungen der Lebensqualität. Daher gibt es blinde und taube Menschen. Wenn einige
Teile eines Computersystems defekt oder nicht vorhanden sind, dann ist seine Funktionalität auch
eingeschränkt, es kann zum Beispiel keinen Ton wiedergeben oder kein Bild ausgeben. Die Art der
Einschränkung ist aber in den beiden Fällen nicht dieselbe. Kapp hat ja immer auf den Unterschied
zwischen dem Organischen und Mechanischen hingewiesen, darauf, dass wir uns „des Andranges solcher
Ansichten erwehren [müssen], welche den redenden, organisch gegliederten Menschen in den Räder- und
Tastenautomat Hübners einsargen möchten“\autocite[101]{kapp:technik}. Hier tritt die Differenz
zwischen dem Organischen und Mechanischen nochmal ans Licht. Ein Organismus ist ein Ganzes, eine Einheit,
die nicht ohne ein Verlust zerlegt werden kann, hier ist das Ganze mehr als die Summe der Teile. Ein
Mensch kann wunderbar ohne eine Lunge auskommen (wenn man eine Lunge im Folge einer Krebskrankheit
verloren hat). Vielleicht muss man auf manche Sportarten in seinem
Leben verzichten, aber wenn man sowieso keinen Sport treibt, kann es für manche Menschen irrelevant
sein. Und trotzdem wird es als eine Einschränkung betrachtet, als etwas, was normalerweise nicht der
Fall sein soll. Ein Mechanismus dagegen ist die Summe der Teile und nicht mehr als das. Er ist
nach einem Plan gebaut, da gibt es nichts Unbekanntes: „Das physikalische Gesetz deckt allerdings
vollkommen den Mechanismus, nicht aber den Organismus, den wir nur insoweit begreifen, wie wir mit
jenem reichen“\autocite[101]{kapp:technik}. Das Fehlen einiger Komponenten in einem Serversystem,
die in einem Desktop-PC vorhanden sind, wird nicht als eine Einschränkung betrachtet, solange der Server
seine Aufgaben erfüllen kann. Das heißt, solange die Technik ihrem unmittelbaren Zweck dienen kann, ist
sie durch das Fehlen einiger Komponente nicht eingeschränkt. Selbst wenn die Audiokarte meines Rechners
kaputtgeht, ist das mehr eine Einschränkung für mich, weil ich keinen Ton habe, als für meinen Rechner.
Wenn zu Kapps Zeiten die Organtransplantation und die Medizin überhaupt den heutigen Stand der Entwicklung
gehabt hätte, würde er bestimmt noch auf Folgendes aufmerksam machen. Wenn ein technisches Gerät
kaputtgeht, kann man es je nach der Art des Defektes reparieren. Wenn ein Kabel reißt, kann man es
meistens löten, sodass es weiterhin seine Funktion erfüllt. Wenn ein Teil komplexer ist, ist es
oft günstiger, dieses Teil einfach auszutauschen. Nun könnte man mit Kapp argumentieren, dass die
Medizin ihre Entstehung dem verdankt, dass der Mensch gesehen hat, dass er von ihm erzeugte Artefakte
reparieren kann, und daraus geschlossen hat, dass es eine Möglichkeit geben muss, auch den Menschen
zu „reparieren“. Und diese Erkenntnis kann sehr alt sein, da sogar so etwas Einfaches wie
ein Hammer kaputtgehen kann. Als man komplexere Maschinen reparieren musste, könnte einem
eingefallen sein, dass man auch den Organismus durch ersetzen der Organe heilen kann. Im
Gebrauchtwarenhandel (e.g.\ eBay) sind seit einiger Zeit Geräte „für Bastler“ zu kaufen, das heißt
kaputte Geräte, denen man aber noch funktionierende Teile entnehmen kann, um ähnliche Modelle wieder
beleben zu können --- die Möglichkeit, die einem Arzt durch das Vorhandensein eines Organspendeausweises
bei einem Verstorbenen eröffnet wird.
Wie aber ein Mensch nicht ohne Gehirn leben kann, kann ein Computer nicht ohne den Mikroprozessor
funktionieren. Eric Kandel, ein Gehirnforscher unserer Zeit, und ein
Nobelpreisträger,\autocite[Vgl.][11--15]{kandel:gedaechtnis} schreibt in seinem Buch
„Auf der Suche nach dem Gedächtnis“ über drei Prinzipien, auf denen die
Biologie der Nervenzelle beruht:
\begin{quote}
Die \textit{Neuronenlehre}
(die Zelltheorie, auf das Gehirn angewandt) besagt, dass die Nervenzelle --- das Neuron --- der
Grundbaustein und die elementare Signaleinheit des Gehirns ist. Die \textit{Ionenhypothese} betrifft
die Informationsübertragung innerhalb der Nervenzelle. Sie beschreibt die Mechanismen, durch die einzelne
Nervenzellen elektrische Signale, so genannte Aktionspotenziale, erzeugen, die sich innerhalb einer
gegebenen Nervenzelle über beträchtliche Entfernungen ausbreiten können. Die \textit{chemische Theorie der
synaptischen Übertragung} befasst sich mit der Informationsübermittlung zwischen Nervenzellen. Sie beschreibt,
wie eine Nervenzelle mit einer anderen kommuniziert, indem sie ein chemisches Signal, einen Neurotransmitter,
freisetzt. Die zweite Zelle erkennt das Signal und reagiert mit einem spezifischen Molekül, dem Rezeptor, an
ihrer äußeren Membran.\autocite[75\psq]{kandel:gedaechtnis}
\end{quote}
Bei jedem dieser drei Prinzipien handelt es sich um die Informationsübertragung. Der menschliche Körper
ist ein komplexes System, dessen Untersysteme anhand von Signalen miteinander kommunizieren. Wenn ich etwas
berühre, führt es zur Erregung einer Nervenzelle, die das Signal an andere Zellen und an das Gehirn
weiterleitet. Funktional ist das derselbe Prozess, den man auch von Computern kennt: Wenn eine Taste
der Tastatur betätigt wird, muss das über eine Kette der Signale dem Mikroprozessor mitgeteilt werden.
Auch der Sprachgebrauch der Neurobiologie verweist auf die Technik:
„[\dots] Nervenzellen [sind] innerhalb bestimmter Bahnen verknüpft, die er [Santiago Ram\'o y Cajal]
neuronale Schaltkreise nannte.“\autocite[81]{kandel:gedaechtnis}
„Schaltkreis“ ist ein Begriff, der aus der Elektrotechnik kommt und jetzt in der
Neurobiologie Anwendung findet. Kapp ist auch zu seiner Zeit auf eine Reihe von Begriffen aufmerksam
geworden, die zunächst zur Beschreibung der Artefakte verwendet wurden, dann aber für die Beschreibung des
Organismus übernommen wurden:
\begin{quote}
Aus der Mechanik wanderten demzufolge zum Zweck physiologischer Bestimmungen eine Anzahl von
Werkzeugnamen nebst ihnen verwandten Bezeichnungen an ihren Ursprung zurück. Daher spielen in der Mechanik
der Skelettbewegungen Ausdrücke wie \textit{Hebel, Scharnier, Schraube, Spirale, Achsen, Bänder,
Schraubenspindel, Schraubenmutter} bei der Beschreibung der Gelenke eine angesehene
Rolle.\autocite[71]{kapp:technik}
\end{quote}
Es ist bemerkenswert, dass Kandel die elektrische Signalübertragung „die Sprache des
Geistes“\autocite[Vgl.][90]{kandel:gedaechtnis} nennt: „ [\dots] sie ist das Mittel,
mit dessen Hilfe sich Nervenzellen, die Bausteine des Gehirns, miteinander über große Entfernungen
verständigen.“\autocite[90]{kandel:gedaechtnis} Das heißt, dass das, was man der
Computertechnik zugrunde gelegt hat, hat man dann in der Gehirnforschung wiedergefunden: Die Signalübertragung der
anhand elektrischer Signale.
Hier endet allerdings die Ähnlichkeit der Funktionsweise nicht. Elektrische Signale werden bei der
Computertechnik nicht einfach weiter, sondern auch nach Bedarf gestoppt. Zum Beispiel wird logisches
Und mit einer Reihenschaltung mit zwei Schaltern realisiert.\autocite[Vgl.][86]{kersken:fachinformatiker}
Wenn einer der Schalter geschlossen ist, wird das Signal gestoppt, was $0 \wedge 1 = 0$ oder
$1 \wedge 0 = 0$ entsprechen würde. Bei den Nervenzellen kann man einen ähnlichen
„Schaltmechanismus“ entdecken:
\begin{quote}
[\dots] nicht alle Nerventätigkeit [ist] erregend (exzitatorisch) [\dots], dass also nicht alle
Nervenzellen ihre präsynaptischen Endigungen dazu benutzen, die nächste Empfängerzelle in der Reihe zu
stimulieren, damit sie die Information weiterleitet. Einige Zellen sind hemmend (inhibitorisch). Sie
verwenden ihre Endungen dazu, die Empfängerzelle an der Weiterleitung der Information zu
hindern.\autocite[87]{kandel:gedaechtnis}
\end{quote}
Des Weiteren kennen auch die Nervenzellen keine „schwächere“ oder „stärkere“
Signale:
\begin{quote}
Adrians Aufzeichnungen in einzelnen Nervenzellen zeigten, dass Aktionspotenziale dem
Alles-oder-Nichts-Gesetz gehorchen: Sobald die Schwelle für die Erzeugung eines Aktionspotenzial erreicht wird,
ist das Signal stets gleich --- in der Amplitude wie in der Form\autocite[94]{kandel:gedaechtnis}
\end{quote}
\subsection{Asymmetrische kryptographische Algorithmen und die Stellung des Menschen}
Manche Anwendungsbereiche profitieren immer noch sehr stark von der ursprünglichen Tätigkeit der Rechner:
dem Rechnen. Ein solcher Bereich ist die Kryptographie. Als nächstes möchte ich einen kryptographischen Algorithmus
darstellen, der seit einigen Jahrzehnten erfolgreich im Internet eingesetzt wird. Mein Ziel dabei wäre, zu
untersuchen, was die „Denkweise“ einer Maschine von der Denkweise eines Menschen unterscheiden
kann. Kapp hat zwar versucht, die
Organprojektion stark zu machen, aber hat trotzdem geglaubt, dass der Mensch nicht vollständig in
eine Maschine projiziert werden kann, dass er immer Anlagen hat, die in der technischen Welt nicht
vorkommen können.
Algorithmen, die mit einem Geheimwort, einem Geheimschlüssel arbeiten (sogenannte symmetrische Verschlüsselung)
sind im Zeitalter des Internets nicht allein verwendbar. Das Problem ist, dass
die beiden Seiten der Kommunikation einen Geheimschlüssel austauschen müssen. Wenn Sie eine E-Mail
verschicken möchten, können Sie sie verschlüsseln, aber Sie müssen den Geheimschlüssel dem Empfänger
mitteilen, damit er Ihre Nachricht auch entschlüsseln und lesen kann. Wenn Sie den Geheimschlüssel zusammen
mit der Nachricht verschicken, dann geht die ganze Sicherheit verloren, weil, dann jeder, der den Zugriff
zu Ihrer Nachricht bekommt, kann sie auch entschlüsseln. Um dieses Problem zu lösen, wurden
„asymmetrische“ kryptographische Verfahren entwickelt. Sie operieren genauso wie
die Cäsar-Verschlüsselung mit den Schlüsseln, aber für die Verschlüsselung und Entschlüsselung werden
verschiedene Schlüssel verwendet (deswegen nennt man sie asymmetrisch). Deren Funktionsweise ist der
der symmetrischen Algorithmen nicht ähnlich, weil ihnen bestimmte Eigenschaften der Zahlen zugrunde liegen.
Streng genommen kann man mit deren Hilfe nur Zahlen verschlüsseln und die Tatsache, dass man
viele Informationen in der Form von Zahlen darstellen kann, macht deren Verwendung überhaupt erst möglich.
„By far the most common public-key algorithm is the „RSA“ algorithm, named after its
inventors Ron \textit{Rivest}, Adi \textit{Shamir}, and Leonard
\textit{Adleman}.“\autocite[91]{davies:tls}
RSA ist relativ simpel. Dessen Sicherheit basiert nicht auf komplexen Formeln, sondern darauf, dass es
mit sehr großen Zahlen operiert wird, sodass selbst die leistungsstärksten Rechner Jahrzehnte brauchen
würden, um auf die richtige Antwort zu kommen, ohne den Geheimschlüssel zu kennen. Und das mit Einbeziehung
der Tatsache, dass die Computer immer schneller werden.
Also für die Verschlüsselung und Entschlüsselung werden zwei Schlüssel verwendet, einen davon nennt man
den öffentlichen Schlüssel (\textit{public key}), den anderen --- den privaten Schlüssel (\textit{private
key}). Der öffentliche Schlüssel heißt so, weil er öffentlich gemacht wird. Das eigentliche
„Geheimwort“ ist der private Schlüssel. Stellen wir uns zwei Personen vor, Max und Sven, und
Max will dem Sven eine E-Mail senden. Dafür muss Sven im Besitz der zwei oben genannten Schlüssel sein.
Den öffentlichen Schlüssel stellt Sven dem Max und jedem anderen zur Verfügung, den privaten kennt nur er.
Max verschlüsselt seine Nachricht mit Svens öffentlichem Schlüssel, verschickt sie, und nur der Besitzer
des privaten Schlüssels, Sven, kann die Nachricht entschlüsseln. Der private Schlüssel wird zu keinem
Zeitpunkt verschickt, der bleibt immer bei Sven. So verschwindet das Problem, das man mit der
symmetrischen Kryptographie hat. Man muss nur zwei Schlüssel generieren können, die die Eigenschaft
besitzen, dass, wenn man mit dem einen etwas verschlüsselt, allein der Besitzer des dazugehörigen
privaten Schlüssels, es entschlüsseln kann.
Was sind diese Schlüssel eigentlich? Jeder davon besteht aus je zwei Zahlen:
$e$ und $n$ --- Öffentlicher Schlüssel.
$d$ und $n$ --- Privater Schlüssel.
Wenn $m$ die Nachicht ist, die verschüsselt werden soll, dann funktioniert es, wie folgt:
\begin{equation}
c = m^e \bmod n
\end{equation}
$c$ ist jetzt die verschlüsselte Nachricht. $e$ und $n$ gehören, wie oben beschrieben, zu dem öffentlichen
Schlüssel. $a \bmod b$ berechnet den Rest der Division $a$ geteilt durch $b$. Bei der Entschlüsselung
bedient man sich derselben Formel, nur $e$ wird mit $d$ (die Komponente des privaten Schlüssels) ersetzt:
\begin{equation}
m = c^d \bmod n
\end{equation}
\subsubsection{Beispiel}
Nehmen wir an, Max will Sven die PIN seiner Bankkarte „1234“ übermitteln. Sven hat Max
seinen öffentlichen Schlüssel mitgeteilt (der aus 2 Zahlen besteht):
\begin{gather*}
e = 79 \\
n = 3337
\end{gather*}
Der private Schlüssel von Sven (den nur er kennt, aber nicht Max) ist:
\begin{gather*}
d = 1019 \\
n = 3337
\end{gather*}
Max berechnet:
\begin{equation*}
1234^{79} \bmod 3337 = 901
\end{equation*}
Sven bekommt $901$ und berechnet:
\begin{equation*}
901^{1019} \bmod 3337 = 1234
\end{equation*}
So kann Sven verschlüsselte Nachrichten empfangen, ohne seinen Geheimschlüssel jemandem mitteilen zu
müssen.\autocite[Vgl.][114\psq]{davies:tls} Wenn wir wissen, dass alle Informationen, mit denen ein Computer
arbeiten kann als Zahlen repräsentierbar sind, kann man diese Vorgehensweise für jede vermittels eines
Computers geschehende Kommunikation verwenden.\footnote{Am Rande erwähnt wird die asymmetrische Kryptographie
nicht zur Verschlüsselung der eigentlichen Nachrichten verwendet, es ist zu langsam, um große Mengen
an Informationen zu verschlüsseln, sondern sie wird nur für das \textit{Key Exchange} verwendet.
Die symmetrischen Algorithmen hatten das Problem, dass beide Kommunikationspartner denselben Schlüssel
teilen müssen. Algorithmen, wie RSA, benutzt man, um den Schlüssel eines symmetrischen Algorithmus dem
anderen Kommunikationspartner zu übermitteln. Danach wird die Kommunikation normalerweise symmetrisch
verschlüsselt.}
In dem Beispiel oben wurden sehr kleine Zahlen verwendet. Aber selbst die Berechnungen mit diesen
Zahlen sind für einen Menschen zu komplex (Das Ergebnis von $901^{1019}$ hat über 3000 Stellen).
\begin{quote}
The security of the system relies on the fact that even if an attacker has access to $e$ and $n$ ---
which he does because they're public --- it's computationally infeasbile for him to compute $d$. For
this to be true, $d$ and $n$ have to be enormous --- at least 512 bit numbers (which is on the order of
$10^{154}$) --- but most public key cryptosystems use even larger numbers. 1,024- or even 2,048-bit numbers are
common.\autocite[92]{davies:tls}
\end{quote}
Eine 512-Bit-Zahl ist eine Zahl bis $2^{512}$, eine 1024-Bit-Zahl --- bis $2^{1024}$, 2048-Bit --- bis $2^{2048}$.
Inzwischen wird oft empfohlen, 4096-Bit-Zahlen zu verwenden.
\subsubsection{Diskreter Logarithmus}
Der Modulus $n$ ist das Produkt zweier großer Zahlen $p$ und $q$:
\begin{gather}
n = pq
\end{gather}
Danach muss man die Exponenten $e$ und $d$ so wählen, dass gilt:
\begin{equation}
{(m^e)}^d \bmod n = m
\end{equation}
Man schafft sich Abhilfe mit der \textit{eulerschen Funktion}:
\begin{equation}
\phi(n) = (p - 1)(q - 1)
\end{equation}
Danach wählt man $e$ und $d$, sodass gilt:
\begin{equation}
e \cdot d \bmod \phi(n) = 1
\end{equation}
\begin{quote}
The security in RSA rests in the difficulty of computing first the private exponent $d$
from the public key $e$ and the modulus $n$ as well as the difficulty in solving the equation $m^x\%n = c$ for
m. This is referred to as the \textit{discrete logarithm} problem. These problems are both strongly
believed (but technically not proven) to be impossible to solve other than by enumerating all possible
combinations.\autocite[130]{davies:tls}
\end{quote}
\subsubsection{Kreativität und Intuition}
Die Tatsache, dass der Algorithmus funktioniert, verdankt also RSA nicht einer Kenntnis, sondern
einer \textit{Unkenntnis}, einem mathematischen Problem, für das man keine Lösung hat, von dem
man \textit{glaubt}, dass es keine Lösung hat; und im Zusammenhang mit der Sicherheit kann man vielleicht auch
sagen, dass man \textit{hofft}, dass man keine Lösung findet.
Menschliches Handeln, zumindest so, wie wir es erleben, basiert nicht nur auf Berechnungen. Der Mensch
kann \textit{hoffen}, \textit{glauben}.
Davies schreibt im Bezug auf die asymmetrische Kryptographie Folgendes: „In general, public-key cryptography
aims to take advantage of problems that computers are inherently bad at [\dots].“\autocite[91]{davies:tls}
Er behauptet, dass die Computer grundsätzlich schlecht im
Lösen einiger mathematischer Probleme sind. Das stößt beim ersten Lesen auf Fragen. Eigentlich sind
die Computer oft viel besser in der Mathematik als die Menschen. \textit{Computer Algebra Systems} (CAS)
sind Programme, die für die Arbeit mit algebraischen Ausdrücken entwickelt sind. Sie können alle möglichen
Berechnungen durchführen und Gleichungen lösen. Aber das Lösen der Gleichungen muss
einem CAS zunächst „beigebracht“ werden, es muss unterstützt sein, das heißt ein gewisser Algorithmus
muss implementiert werden, nach dem die Gleichung gelöst werden kann.
Der Mensch sucht aber nicht nur nach Lösungen gewisser mathematischer Probleme, sondern auch nach Problemen
selbst. Das ist ein kreativer Vorgang. Und bei manchen Problemen bleibt einem nichts anderes übrig, als
sich auf seine Intuition zu verlassen, wie im oben aufgeführten Problem. Man muss auch in Betracht ziehen,
dass man in dem Fall mit RSA viel Vetrauen seiner Intuition schenkt, weil die Wichtigkeit der
Sicherheitssysteme für eine Informationsgesellschaft nicht zu unterschätzen ist. Das heißt man muss fest
davon überzeugt sein, dass das Problem des diskreten Logarithmus zumindest nicht sehr bald gelöst werden
kann.
Man kann im Bezug zu Maschinen nicht von der Kreativität, Intuition, einer Überzugung oder einem Glauben
sprechen. Wir haben sie gebaut, wir wissen, wie sie funktionieren, wir wissen, dass sie nichts glauben.
Selbst wenn wir von der Künstlichen Intelligenz sprechen, von den Maschinen, die selbst lernen, und die so
viel gelernt haben, dass wir nicht mehr nachvollziehen können, wie sich die Maschine die einzelnen Inhalte
beigebracht hat, so wissen wir zumindest, wie der Lernprozess selbst funktioniert, dass er nicht auf der
Intuition, sondern auf der kalten Berechnung basiert.
Nun kann es natürlich sein, dass auch der Mensch nichts weiter als ein Bioroboter ist, der nur glaubt,
dass er etwas glauben, von etwas überzeugt sein kann. Dann kann die Maschine den Stand des Menschen
eines Tages einholen und ihn vielleicht sogar überholen. Das ist wohl das wichtigste und das stärkste
Argument gegen Kapps Menschenbild. Dieses Argument hat allerdings auch problematische Seiten. Es sind
ja die Menschen, die alles mit Bedeutung füllen. Ich kann mir auch nicht sicher sein, ob mein Nachbar
etwas fühlt, hofft oder glaubt, oder ob er nur so tut. Erst wenn ich meinen Mitmenschen als solchen
akzeptiere, schreibe ich ihm Eigenschaften zu, die ich selbst als Mensch zu besitzen glaube. Das
heißt, wenn ein Roboter aus der Zukunft genauso aussieht, sich verhält, spricht wie ein Mensch, ist es
immer noch zu wenig, ihn einem Menschen gleichzusetzen, zumindest, wenn der Mensch für mich nicht auf
die physikalischen Eigenschaften reduzierbar ist.
Eine der Möglichkeiten, diesen Sachverhalt zu verdeutlichen, ist ein Gedankenexperiment, das den
Namen „Chinesisches Zimmer“ bekommen hat, der „als Standardargument der Philosophie
des Geistes und der Künstlichen Intelligenz betrachtet werden“ kann.\autocite[8]{dresler:KI}
Man stellt sich ein Computersystem, das chinesisch verstehen kann, es könnte beispielsweise Fragen
auf Chinesisch beantworten, auf Aufforderungen reagieren und so weiter. So ein Programm würde chinesisch
verstehen ohne es zu verstehen.\autocite[Vgl.][8]{dresler:KI} Und das zweite „Verstehen“ ist
eben in dem Sinne jenes Erlebnisses, das wir als Verstehen kennen, gemeint.
Ich behaupte hiermit nicht, dass dieses Argument den Status des Menschen als eines einzigartigen
Wesens rettet; ich will viel mehr zeigen, dass die Frage nach dem Menschsein nicht durch die Entwicklung
der Technik gelöst oder aufgehoben werden kann.
\section{Würdigung}
Kapps Theorie der Organprojektion ist umstritten. Sie hat ihre Schwächen. Diese Schwächen sind
aber nicht dadurch entstanden, dass die Theorie zu alt für die moderne Technik ist, dass sie überholt
ist. Genauso wie zu Kapps Zeiten stößt sie auch heute auf Kritik. Man kann sie genauso in der heutigen
Zeit vertreten mit Einbeziehung neuer Entwicklungen, neuer Beispiele. In gewisser Hinsicht wird die
Organprojektionstheorie durch den Umstand gestärkt, dass sie nicht auf die Zeit ihrer Entstehung
beschränkt geblieben ist, sondern dass immer neue Tatsachen aufgetaucht sind, die ihrer Unterstützung
dienen können.
Die Mechanisierung schreitet fort. Immer noch ist der Streit laut zwischen denen, die glauben, dass
der Mensch eine Maschine ist, die künstlich nachgebaut werden kann, und denen, die das menschliche
Schaffen dem Schaffen der Natur unterordnen. Wobei die Teilung auf diese zwei Lager ist nicht
so eindeutig. Vielleicht wird man tatsächlich eines Tages im Stande sein, einen Roboter zu bauen,
der sich äußerlich und in dem, wie er handelt, vom Menschen nicht unterscheidet. Aber ist er
deswegen mit einem Menschen gleichzusetzen? Hat der Mensch nicht etwas Immaterielles in sich?
Einen Geist oder eine Seele? Die Antwort auf diese Frage kann unterschiedlich ausfallen. Für
Kapp war der Mensch und die Natur etwas, was von der Technik nie nachgeholt werden kann. Die
Entwicklung der Robotertechnik macht schwieriger zu vertreten. Und trotzdem dünkt es mich, dass man
ihn nie als „nicht aktuell“ abtun kann. Schließlich hat die Frage nach dem Status des
Menschen einiges gemeinsam mit der Gottesfrage. Wenn man als Beispiel das Christentum nimmt, ist es
irrelevant, wie viel von der Natur man physikalisch erklären kann, Gott bleibt jenseits der Natur.
Genauso kann es geglaubt werden, dass ein Teil des Menschen immer jenseits der physikalischen
Welt liegt, oder dass der Körper sogar der „Kerker der Seele“ ist, der das Eigentliche
im Menschen festhält, wie es bei Platon auftaucht\autocite[Vgl.][21]{platon:kratylos}. Die
Entwicklung der Technik beeinflusst die Anthropologie, aber es ist schwierig sich vorzustellen, dass
jene diese überflüssig machen kann.
Die ersten Werkzeuge hatten viele Ähnlichkeiten mit den menschlichen Organen. Komplexere Maschinen
waren immer weniger ähnlich, aber haben den Anfang ihrer Entstehungsgeschichte in den einfachen
Werkzeugen. Es ist aufregend zu sehen, wie die äußerliche Ähnlichkeit jetzt zurückkehrt. Man
baut Roboter, die Hände, Beine, die Struktur eines menschlichen Organismus haben, und die ähnlich
wie Menschen lernfähig sind. Der Unterschied ist, dass laut Kapp der Mensch am Anfang seiner Geschichte
sich unbewusst in seine Werkzeuge projiziert hat. Die Entwicklung der Roboter und der
Künstlichen Intelligenz ist hingegen voll bewusst. Man schaut, wie der Mensch sich entwickelt,
wie er lernt, wie er aufgebaut ist, und versucht das technisch zu reproduzieren. Aber das Streben selbst,
auf diese Weise die Natur zu erklären, sie besser zu verstehen, ist bemerkenswert. Kapp hätte auch
hundert Jahre später kaum weniger Argumente gehabt, um seine Theorie zu verteidigen.

View File

@@ -0,0 +1,717 @@
---
layout: post
date: 2017-12-25 00:00:00
tags: Aufsatz
title: Künstliche Intelligenz. Eine Begriffsklärung
teaser:
<p>Es ist relativ neu, dass man angefangen hat, technischen Artefakten menschliche Eigenschaften zuzuschreiben.
So spricht man heute von „intelligenten“ Maschinen. Es gibt intelligente Menschen, die gebildet,
begabt sind. Die Maschinen, Computer werden programmiert, um einen bestimmten Zweck zu erfüllen, sie arbeiten
nach einem vordefinierten Algorithmus. Bestenfalls kann so ein Algorithmus aktualisiert werden.
Wäre es jedoch vielleicht möglich, ein Programm zu schreiben, das das menschliche Lernvermögen nachbildet
und lernen kann? Es ist tatsächlich möglich und in diesem Fall spricht man von der <em>künstlichen Intelligenz</em>
(<em>Artificial Intelligence</em>) und dem <em>maschinellen Lernen</em> (<em>Machine Learning</em>), von der
Fähigkeit einer Maschine, selbst zu lernen, also den Algorithmus, nach dem sie arbeitet, weiter zu entwickeln
und zu verändern. Das, was eine Maschine auf diese Weise gelernt hat, ist oft so komplex, dass man nicht mehr
sagen kann, wie genau sie das gelernt hat und wie sie zu Ergebnissen kommt, die sie liefert. Ob es ausreichend
ist, von der Intelligenz zu sprechen, im selben Sinne, wie man von der menschlichen Intelligenz spricht, ist
eine schwierige Frage. Selbst die menschliche Intelligenz ist kein eindeutig definierter, ein vager Begriff,
der viele subjektive Merkmale in sich trägt.</p>
---
\section{Einleitung}
Die Technik gibt es seit sehr langem. Der Mensch war schon immer abhängig von seiner Technik und
verdankte ihr seinen kulturellen Aufstieg. Sie erleichterte das Überleben in der Natur, ermöglichte
den Bau der Städte und die Entwicklung der Zivilisationen, half bei der Kriegsführung und der Erforschung
und dem Bewohnen neuer Territorien. Mit der Zeit wurde die Technik immer komplexer: Angefangen mit einfachen
Werkzeugen hat man gelernt, komplexere Maschinen zu bauen. Dies hatte wiederum eine enorme Wirkung auf die
Kultur. Viele schwere Arbeiten konnten auf die Maschinen verlagert werden; die Bildung hat einen neuen
Aufschwung bekommen; Wissenschaften hatten neue Mittel, um Experimente durchzuführen und immer weiter
fortzusrchreiten. Schon sehr lange ist der Mensch von seiner Technik umgeben; Es ist nicht erst gestern
passiert, dass er sich von ihr abhängig gemacht hat und seine Geschichte mit der der
Technik verbunden hat. Was sich aber im Laufe der Zeit gewandelt hat, ist die Art der angesetzten Technik.
Es ist relativ neu, dass man angefangen hat, technischen Artefakten menschliche Eigenschaften zuzuschreiben.
So spricht man heute von „intelligenten“ Maschinen. Es gibt intelligente Menschen, die gebildet,
begabt sind. Die Maschinen, Computer werden programmiert, um einen bestimmten Zweck zu erfüllen, sie arbeiten
nach einem vordefinierten Algorithmus. Bestenfalls kann so ein Algorithmus aktualisiert werden.
Wäre es jedoch vielleicht möglich, ein Programm zu schreiben, das das menschliche Lernvermögen nachbildet
und lernen kann? Es ist tatsächlich möglich und in diesem Fall spricht man von der \textit{künstlichen Intelligenz}
(\textit{Artificial Intelligence}) und dem \textit{maschinellen Lernen} (\textit{Machine Learning}), von der
Fähigkeit einer Maschine, selbst zu lernen, also den Algorithmus, nach dem sie arbeitet, weiter zu entwickeln
und zu verändern. Das, was eine Maschine auf diese Weise gelernt hat, ist oft so komplex, dass man nicht mehr
sagen kann, wie genau sie das gelernt hat und wie sie zu Ergebnissen kommt, die sie liefert. Ob es ausreichend
ist, von der Intelligenz zu sprechen, im selben Sinne, wie man von der menschlichen Intelligenz spricht, ist
eine schwierige Frage. Selbst die menschliche Intelligenz ist kein eindeutig definierter, ein vager Begriff,
der viele subjektive Merkmale in sich trägt.
Dass wir die Programme entwickeln können, die sich selbst „weiterschreiben“, weiterentwickeln
können, birgt viele Möglichkeiten und viele Gefahren in sich. Einerseits können die Maschinen dem Menschen
nicht nur schwere körperliche Arbeit abnehmen, sondern auch einige geistige Tätigkeiten. Zum Beispiel das
Übersetzen von Texten in andere Sprachen kann teilweise von Computern übernommen werden, die ihre
„Sprachkenntnisse“ selbst immer mehr verbessern können. Andererseits, wenn man nicht mehr
versteht, wie genau die von ihm konstruierte Maschine handelt, fühlt man sich bedroht. Es werden auch Stimmen
laut, dass die nächste Stufe der Evolution nicht eine biologische, sondern eine technische Evolution sei und,
dass der Mensch sehr bald vom Werk seiner Hände überholt werde.\autocite[7ff]{kurzweil:menschheit}
Das Ziel dieser Arbeit ist, auf die künstliche Intelligenz und neuronale Netze, nicht nur aus technischer,
sondern auch philosophischer Sicht zu schauen. Wenn wir von der künstlichen Intelligenz sprechen,
verwenden wir viele Begriffe wie Lernen, Lernerfolg, Intelligenz, deren Bedeutung aber nicht immer
klar ist. Und ich finde, dass das, wie wir über die Maschinen sprechen,
viel darüber sagt, wie sich unser eigenes Menschenbild im technischen Zeitalter verändert oder verändert hat.
\section{Maschinelles Lernen}
Maschinelles Lernen ist ein Zweig der künstlichen Intelligenz, in dem es darum geht, einem künstlichen
System das Gewinnen von Wissen zu ermöglichen. Ein auf diese Weise lernendes System kann eine gestellte
Aufgabe nicht nach einem vordefinierten Algorithmus lösen, sondern ist fähig, selbst zu lernen, wie die
Aufgabe zu lösen ist.
Maschinelles Lernen ist sehr vielfältig und hat verschiedene Anwendungen. Es kann grob in zwei große Kategorien
unterteilt werden: überwachtes und unüberwachtes Lernen.
\subsection{Überwachtes Lernen (Supervised Learning)}
Beim überwachten Lernen stehen dem Lernenden eine Menge von Eingaben und den dazugehörigen Ausgaben zur Verfügung.
Das heißt es gibt eine Reihe von Ausgangsituationen und eine Reihe möglicher Antworten beziehungsweise Reaktionen
auf jene Situationen, wobei zwischen den ersteren und den letzteren eine Abhängigkeit vorhanden ist.
Das Ziel des Algorithmus ist jetzt diese Abhängigkeit zu entdecken, sie zu „erlernen“.
\begin{quote}
\textit{Supervised learning} algorithms assume that some variable X is
designated as the target for prediction, explanation, or inference, and that
the values of X in the dataset constitute the „ground truth“ values for
learning.\autocite[154]{danks:ai}
\end{quote}
Zum überwachten Lernen gehört auch das sogenannte \textbf{bestärkende Lernen (Reinforcement Learning)}.
Das ist das Lernen durch „Versuch und Irrtum“. Dem lernenden System steht hier keine Menge
möglicher Ausgaben, sodass der Algorithmus aus vorhandenen Daten lernen könnte, dafür kann es mit seiner
Umgebung interagieren und von dieser „belohnt“ oder „bestraft“ werden. Also der
Algorithmus wird aus der Umgebung bewertet und anhand dieser Bewertung kann er lernen, wie er anhand
einer Eingabe zu der richtigen Ausgabe gelangt.
„The learning algorithms used on reinforcement learning adjusts
the internal neural parameters relying on any qualitative or quantitative information
acquired through the interaction with the system (environment) being mapped, [\dots]“\autocite[27]{silva:ai}
Maschinelles und bestärkendes Lernen wird schon seit längerer Zeit bei Spam-Erkennung verwendet. Als Spam
werden unerwünschte E-Mails, zum Beispiel Werbung, die man nicht bestellt hat, genannt. Es gibt auch einen
Gegenbegriff zum Spam: Ham, also normale E-Mails, die man in seinem E-Mail-Postfach erwartet.
Wie ein Programm lernt, Spam von Ham zu unterscheiden, kann man damit vergleichen, wie es ein Mensch lernt.
Sie bekommen unerwünschte Werbung per Post. Es ist ein Briefumschlag mit einer unpersönlichen Anrede und ein
kleines Heft. Sie blättern es durch und sehen, dass sie daran nicht interessiert sind und schmeißen es weg.
Wenn Sie ein ähnliches Heft nächstes Mal bekommen, blättern Sie vielleicht nochmal durch, um sicher zu sein,
dass es nichts Wichtiges bzw\@. etwas, was Sie abonniert haben, ist. Wenn Sie einige Wochen später nochmal so ein
Heft bekommen, reicht nur ein Blick. Vielleicht haben Sie den Namen desselben Unternehmens oder bekannte
Produktabbildungen oder einen ähnlichen Werbetext gesehen --- Sie schmeißen es, ohne genauer zu schauen, weg.
Sie haben gelernt, dass derartige Hefte mit Werbung keine für Sie hilfreiche Information enthalten.
In vielen Mail-Programmen gibt es inzwischen die Funktion „Als Spam markieren“. Wenn eine E-Mail
als Spam markiert wird, analysiert der Spam-Filter den Inhalt der E-Mail und merkt, wie viele Male jedes Wort
in der Nachricht vorkommt. Dieselbe Analyse macht der Filter für die anderen Nachrichten, die nicht als Spam
markiert wurden. Langsam sammelt sich eine Datenbank mit der Anzahl der Vorkommnisse verschiedener Wörter in
Spam- und Ham-Nachrichten. Anhand dieser Daten kann dann der Filter erkennen, dass bestimmte Wörter nur in
Spam-Mails vorkommen, aber nicht in Ham, und kann ohne die Einmischung des Menschen entscheiden, ob eine E-Mail
unerwünscht ist oder nicht. So ein Verfahren ist natürlich nicht fehlerfrei. Es kommt sowohl dazu, dass Spam durch
so einen Filter unerkannt durchdringen kann, als auch dazu, dass Ham im Spam-Ordner landet. Auf diversen Webseiten
kann man lesen: „Wenn Sie keine E-Mail innerhalb von \textit{X} Stunden erhalten haben, überprüfen Sie Ihren
Spam-Ordner“. Wenn Ham als Spam eingestuft wird, spricht man vom \textit{False-Positive}. Es gibt meistens
wiederum die Funktion, um die Spam-Markierung von der E-Mail zu entfernen. Dadurch kann der Filter neu lernen
und seine Datenbank aktualisieren beziehungsweise anpassen.
Wir haben gesehen, dass eine der Möglichkeiten, Spam zu erkennen, darauf basiert, den Spam-Filter mit der
Umgebung, also mit dem Benutzer, kommunizieren zu lassen. Der Benutzer hat eine Möglichkeit dem Filter mitzuteilen,
ob eine E-Mail Spam oder Ham ist, woraus der Filter lernen kann. Je länger so ein Filter eingesetzt wird und je
mehr er auf diese Weise trainiert wird, desto geringer wird die Wahrscheinlichkeit des False-Positives.
\subsection{Unüberwachtes Lernen (Unsupervised Learning)}
\begin{quote}
\textit{Unsupervised learning} algorithms do not single out any particular
variables as a target or focus, and so aim to provide a general
characterization of the full dataset.\autocite[154]{danks:ai}
\end{quote}
Beim unüberwachten Lernen wird keine bestimmte Ausgabe, kein bestimmter Wert bei der Ausgabe erstrebt, wie es
bei dem überwachten Lernen der Fall ist. Vielmehr geht es darum, eine innere Struktur in den Daten zu entdecken.
Ein Standardbeispiel für unüberwachtes Lernen ist ein soziales Netzwerk. In großen sozialen Netzwerken kann
man sein Interesse oder Desinteresse dadurch zeigen, dass man bestimmte Beitrage positiv markiert
beziehungsweise blockiert. Ein gutes soziales Netzwerk würde, um seinen Nutzern genüge zu tun, die einem
bestimmten Benutzer angezeigten Beiträge zensieren, und ihm nur diejenigen zeigen, die er wahrscheinlich
mag und nicht diejenigen, die er blockieren würde. Aber das Netzwerk weiß nicht im Voraus, dass es
Beiträge zu verschiedenen Themen gibt: Kunst, Politik, Sport und so weiter. Schließlich können immer neue
Themen auftauchen. Das Netzwerk lernt selbst die Beiträge und Benutzer zu klassifizieren. Das Lernen geht
über die Erforschung der Vorlieben einer bestimmten Person hinaus. Nehmen wir an in Profilen zweier Personen
unter „Interessen“ steht, dass sie gern Tennis spielen und beide lesen gerne Nachrichten eines
Sportvereins, der eine eigene Seite im sozialen Netzwerk hat. Wenn eine dritte Person jetzt angibt, dass sie
gern Tennis spielt, hat das soziale Netzwerk den Grund anzunehmen, dass dieser Person auch die Nachrichten
des Sportvereins gefallen werden. Das heißt das Netzwerk lernt aufgrund komplexer Zusammenhänge, dass es bestimmte
Gruppen, Themen- und Interessenbereiche gibt. Es gibt hier keine richtige Antwort, man überwacht nicht alle
registrierten Benutzer und korrigiert das Netzwerk nicht: Nein, dieser Mensch gehört dieser Gruppe nicht. Und
wenn ich einen Beitrag blockiere und markierte, bedeutet es nicht unbedingt, dass ich eine Bewertung abgebe, wie
gut das Netzwerk gelernt hat. Es kann schließlich sein, dass ich heute keine Lust auf meinen Sportverein habe,
sonst aber gerne lese, was er schreibt.
Die Unterteilung in Gruppen, Klassifizierung ist in der Wirklichkeit sehr komplex und unterzieht sich oft der
Möglichkeit, sich auf irgendeine Weise kontrollieren oder bewerten zu lassen. Unüberwachtes Lernen kann hier
Abhilfe schaffen.
\section{Neuronale Netze}
In diesem Abschnitt handelt es sich um eine mögliche Realisierung des maschinellen Lernens und zwar anhand
der neuronalen Netze.
\subsection{Biologisches Vorbild}
Ein „neuronales Netz“, wie der Name raten lässt, ist ein Netz das aus
Neuronen beziehungsweise Nervenzellen besteht. Das Neuron ist kein technischer Begriff, er stammt aus
der Biologie: „[\dots] die Nervenzelle --- das Neuron --- [ist] der Grundbaustein und die elementare
Signaleinheit des Gehirns [\dots]“\autocite[75]{kandel:gedaechtnis} Neuronale Netze haben nicht nur
den Begriff des Neurons aus der Gehirnforschung übernommen, sondern auch einige weitere, und überhaupt
haben sie menschliches Gehirn zu ihrem Vorbild.
Die Nervenzelle besteht aus drei Komponenten: einem Zellkörper mit zwei Arten von Fortsätzen,
Axone und Dendriten.\autocite[Vgl.][79]{kandel:gedaechtnis} Diese Fortsätze der Nervenzelle dienen
der Signal- beziehungsweise der Informationsübertragung:
\begin{quote}
Mit den Dendriten empfängt das Neuron Signale von anderen Nervenzellen, und mit dem Axon sendet es
Informationen an andere Zellen\@. [\dots] Die Axonendigungen eines Neurons kommunizieren mit den
Dendritten eines anderen Neurons nur an speziellen Stellen, die von Sherrington später Synapsen
genannt wurden (von griechisch \textit{s\'{y}napsis} --- „Verbindung“).\autocite[81]{kandel:gedaechtnis}
\end{quote}
Synapsen sind ein weiterer Begriff, der für maschinelles Lernen wichtig ist. Sie verbinden
die Neuronen miteinander und kodieren die bisher gelernten Informationen. In künstlichen sowie in
biologischen neuronalen Netzen sind nicht alle Neuronen miteinander verbunden. Im Falle der biologischen
neuronalen Netze sind „Nervenzellen innerhalb bestimmter Bahnen verknüpft [\dots], die
er [Santiago Ram\'{o}n y Cajal] neuronale Schaltkreise nannte. Signale bewegen sich darin in
vorhersagbaren Mustern.“\autocite[81]{kandel:gedaechtnis} Auch im Gehirn sind die Synapsen für
die Informationsspeicherung und Lernerfahrung verantwortlich, da das Lernen die synaptische Stärke und
dadurch die Kommunikation zwischen Neuronen verändern kann.\autocite[Vgl.][220]{kandel:gedaechtnis}
\subsection{Einschichtiges feedforward-Netz}
In diesem Abschnitt soll die Funktionsweise eines neuronalen Netzes an einem Beispiel erklärt werden.
Nehmen wir an, wir wollen den Zusammenhang zwischen der Anzahl der Stunden, die man mit dem
Lernen und dem Schlafen am Tag vor einer Klausur verbracht hat, und dem Ergebnis der Klausur,
gemessen in Prozent, herausfinden.
Zu unseren Eingabedaten zählen:
\begin{enumerate}
\item Stunden geschlafen.
\item Stunden gelernt.
\end{enumerate}
Basierend auf diesen Daten wollen wir vorhersagen, wie das Ergebnis der Klausur ausfällt. Da wir am Anfang
nicht blind raten wollen, nehmen wir auch an, dass wir eine Testperson zur Verfügung haben, die uns für die
Untersuchung notwendige Parameter und das Endresultat ihrer Klausur mitteilt.
\begin{center}
\begin{tabular}{c c}
(gelernt; geschlafen) & Ergebnis \\
\toprule
(3 Std; 5 Std) & 70\% \\
\bottomrule
\end{tabular}
\end{center}
Diese Daten wollen wir verwenden, um unser neuronales Netz zu „trainieren“, d\@.h\@. es
muss anhand dieser Daten Vorhersagen über einen wahrscheinlichen Verlauf künftiger Klausuren machen können.
Bei unseren Berechnungen wollen wir nicht mit verschiedenen Maßeinheiten arbeiten. Zum Beispiel in unseren
Daten haben wir die Eingabe in \textit{Stunden} und die Ausgabe in \textit{Prozent}, es ist allerdings nicht
möglich Stunden in Prozente zu übersetzen oder umgekehrt. Unser Netz ist aber auch an Maßeinheiten oder an
der Art unserer Daten nicht interessiert, es muss schließlich mögliche Zusammenhänge zwischen den Eingabe-
und Ausgabewerten finden, unabhängig davon, ob es nun Stunden, Prozente, Kilogramme oder Meter sind.
Außerdem soll die Ausgabe $x$ die folgende Bedingung erfüllen soll:
\begin{gather}
\{x \in \mathbb{N} \mid 0 \leq x \leq 100 \}
\end{gather}
Um bessere Ergebnisse zu bekommen, werden wir hauptsächlich mit reellen Zahlen von 0 bis 1 rechnen.
Um das zu erreichen werden die Stunden und die Prozentzahl durch 100 geteilt. Nach diesen Umwandlungen
erhalten wir die folgende Tabelle:
\begin{center}
\caption{table}{\textbf{Normalisiert}}
\begin{tabular}{c c}
(gelernt; geschlafen) & erwartetes Ergebnis \\
\toprule
(0{,}03; 0{,}05) & 0,7 \\
\bottomrule
\end{tabular}
\end{center}
\subsection{Gewichtung}
Unser neuronales Netz wird insgesamt aus drei Schichten bestehen:
\begin{figure}[H]
\centering
\includegraphics{/assets/images/ki-begriffsklaerung/image1.png}
\caption{Einfaches neuronales Netz}\label{fig:empty_network}
\end{figure}
Jede dieser Schichten hat wiederum eins oder mehrere \textit{Neuronen}. Jedes dieser Neuronen kann
Daten speichern (in unserem Fall --- eine Zahl). Die Neuronen sind untereinander mit \textit{Synapsen} verbunden.
Eine Synapse kann wiederum Informationen speichern, i\@.e\@. sie werden auch mit einer Zahl versehen.
Die erste Schicht (Abbildung~\ref{fig:empty_network}, links) ist die Eingabeschicht, sie enthält die
Eingabedaten. Als Eingabe haben wir zwei Werte pro Testlauf: die Anzahl der Stunden, die die Testperson gelernt
und geschlafen hat. Diese zwei Werte sind unseren Eingaben, weil es die Daten sind, auf deren Basis wir eine
Ausgabe erwarten, eine Vorhersage machen wollen. Die Ausgabeschicht ist die letzte Schicht
(Abbildung~\ref{fig:empty_network}, rechts), sie hat nur ein Neuron, das Ergebnis der Klausur, das wir erwarten.
Schließlich in der Mitte ist die verdeckte Schicht. Sie ist verdeckt, weil sie für den Endbenutzer
nicht sichtbar ist, der Endbenutzer gibt schließlich eine Eingabe und bekommt am Ende eine Ausgabe, dazwischen
werden, basierend auf dem, was das neuronale Netz vorher gelernt hat, nur eine Reihe von Berechnungen
durchgeführt.\autocite[Vgl.][22]{silva:ai}
Nun hat unser Netz noch nichts gelernt, wir wollen das erstmal nur trainieren. Für den ersten Lauf müssen
wir deswegen eine Reihe von Parametern \textit{zufällig} wählen.
Erstens brauchen wir die sogenannten \textit{Gewichte}. Gewichte sind Werte, die den Synapsen zugeordnet werden.
Sie bestimmen, welchen Einfluss ein Eingabewert auf das Endergebnis hat. Die Gewichtung repräsentiert,
was das Netz bisher gelernt hat.
In unserem Fall haben wir insgesamt 9 Synapsen, sodass jedes Neuron der Eingabeschicht mit allen Neuronen der
verdeckten Schicht, und jedes Neuron der verdeckte Schicht mit dem Neuron der Ausgabeschicht verbunden werden
kann. Ich versehe diese Synapsen mit den folgenden Werten (von oben nach unten und von links nach rechts):
0.8, 0.4, 0.3, 0.2, 0.9, 0.5, 0.3, 0.5, 0.9. Es gibt erstmal keinen Grund, diese Werte und nicht andere
auszuwählen. Sie sind zufällig gefällt und die einzige Bedingung, die sie erfüllen müssen, ist, dass jeder
dieser Werte im Intervall $\left[ 0, 1 \right]$ liegen soll.
Schließlich müssen wir die Neuronen der Eingabeschicht mit unseren Ausgangsdaten füllen. Unsere Ausgangssituation
graphisch dargestellt ist dann die folgende:
\begin{figure}[H]
\centering
\includegraphics{/assets/images/ki-begriffsklaerung/image2.png}
\caption{Einfaches neuronales Netz}\label{fig:start_network}
\end{figure}
\subsection{Vorwärtspropagation}
Im nächsten Schritt wird die verdeckte Schicht gefüllt. Da wir zwei Neuronen in der Eingabeschicht haben und
jedes davon ist den Neuronen der verdeckten Schicht verbunden ist, führen jeweils zwei Synapsen von der
Eingabeschicht zu einem der Neuronen der verdeckten Schicht. Wir multiplizieren den Wert des Neurones der
Eingabeschicht mit den Gewichten der daraus ausgehenden Synapsen, addieren die Ergebnisse zusammen und schreiben
das Endergebnis in das entsprechende Neuron der mittleren Schicht. Die Werte jedes der Neuronen der
verdeckten Schicht werden also wie folgt berechnet:
\begin{equation}
\begin{split}
0{,}03 \cdot 0{,}8 + 0{,}05 \cdot 0{,}2 = 0{,}034\\
0{,}03 \cdot 0{,}4 + 0{,}05 \cdot 0{,}9 = 0{,}057\\
0{,}03 \cdot 0{,}3 + 0{,}05 \cdot 0{,}5 = 0{,}034
\end{split}\tag{Verdeckte Schicht}
\end{equation}
\begin{figure}[H]
\centering
\includegraphics{/assets/images/ki-begriffsklaerung/image3.png}
\caption{Einfaches neuronales Netz}\label{fig:before_activation}
\end{figure}
\subsection{Aktivierungsfunktion}
Da die Eingabe (die Stunden) nicht im Intervall $\left[ 0, 1 \right]$ liegt, verwenden wir eine
\textit{logistische Aktivierungsfunktion}, deren Wertebereich $f(x) \in \mathbb{R} \mid 0 \leq x \leq 1$ ist:
„The output result produced by the logistic function will always assume real values between zero
and one.“\autocite[15]{silva:ai}
\begin{equation}
f(x) = \frac{1}{1 + e^{-x}} \tag{Aktivierungsfunktion}
\end{equation}
So bekommen wir nach den anschließenden Berechnungen mit einer hohen Wahrscheinlichkeit eine Zahl zwischen 0 und 1,
die anschließlich mit 100 multipliziert werden kann, um so auf die Prozente zu kommen.
Wir wenden zunächst die Aktivierungsfunktion auf jeden der vorher berechneten Werte an und schreiben
das Ergebnis ebenfalls in die verdeckte Schicht.
\begin{equation}
\begin{split}
f(0{,}034) \approx 0{,}509\\
f(0{,}057) \approx 0{,}514\\
f(0{,}034) \approx 0{,}509
\end{split}
\end{equation}
\begin{figure}[H]
\centering
\includegraphics{/assets/images/ki-begriffsklaerung/image4.png}
\caption{Einfaches neuronales Netz}\label{fig:activation}
\end{figure}
Es bleibt jetzt nur noch dieselbe Berechnung durchzuführen wie mit der Eingabeschicht: Jeder der Werte
der verdeckten Schicht wird mit dem entsprechenden Gewicht multipliziert und alle Ergebnisse werden
anschließend summiert.
\begin{equation}
\begin{split}
0{,}509 \cdot 0{,}3 = 0{,}1527\\
0{,}514 \cdot 0{,}5 = 0{,}257\\
0{,}509 \cdot 0{,}9 = 0{,}4581
\end{split}
\end{equation}
\begin{equation}
\begin{split}
0{,}1527 + 0{,}257 + 0{,}4581 \approx 0{,}87
\end{split}
\end{equation}
Hier ist das komplett ausgefüllte neuronale Netz für unsere Testperson:
\begin{figure}[H]
\centering
\includegraphics{/assets/images/ki-begriffsklaerung/image5.png}
\caption{Einfaches neuronales Netz}\label{fig:complete_network}
\end{figure}
\subsection{Fehlerrückführung}
Man muss einsehen, dass das Resultat, zu dem wir am Ende kamen, absolut zufällig ist.
In fast jeder Berechnung wurden Gewichte verwendet, die am Anfang zufällig ausgewählt wurden.
Das heißt, wenn ich mich für andere Gewichtung entschieden hätte, käme auch etwas anderes dabei
heraus. Und das ist jetzt die Aufgabe, die bevorsteht: die Gewichtung so anzupassen, dass sie
zu einem genaueren Ergebnis führt. Dieser Schritt heißt \textbf{Fehlerrückführung}. Man versucht
hier den Fehler geringer zu machen. In unserem Fall ist das Ergebnis, das wir erwartet haben, 0.7.
Statdessen haben 0.87, was um 0.17 größer als das erwartete Ergebnis. Wenn wir diese Distanz
zwischen dem aktuellen und dem erwarteten Ergebnis geringer machen, \textit{trainieren}
wir das neuronale Netz.
Es gibt mehrere Methoden, die Fehlerrückführung durchzuführen. Die einfachste (und die schlechteste
für die Praxis, weil sie für ein größeres Netz zu viel Zeit in Anspruch nehmen würde) wäre, einige der
Gewichte zu ändern (man kann dafür wiederum andere zufällige Zahlen von 0 bis 1 verwenden), und
alles dann nochmal mit diesen neuen Gewichten berechnet. Wenn man zu einem besseren Ergebnis kommt,
kann man versuchen, die Gewichtung weiter anzupassen, bis das Resultat zufriedenstellend ist. Wenn
das Ergebnis noch schlechter wird, versucht man dasselbe mit anderen Gewichten.
Das heißt, die \textbf{Vorwärtspropagation} und \textbf{Fehlerrückführung} werden mehrmals wiederholt,
bis das Endresultat ausreichend genau ist. Schließlich ist eine Testperson für das Trainieren des
neuronalen Netzes nicht ausreichend. Wenn wir weitere Daten erhalten, können wir sie genauso
einsetzen, und den Endwert mit denselben Gewichten für diese neuen Daten berechnen. Dann können
wir versuchen, die Gewichtung so anzupassen, dass für die beiden Fälle ein genaueres Ergebnis
herauskommt. Dann ziehen wir noch eine dritte Testperson hinzu und so weiter\dots{} Irgendwann haben
wir die Gewichtung so gewählt, dass wir damit rechnen können, dass wenn wir dem Netz neue Daten
übergeben, wir eine gute Einschätzung für die Endnote bekommen. Es ist kaum möglich mit dem oben
aufgeführten Netz. Neuronale Netze sind in der Praxis viel komplexer und haben mehrere verdeckte
Schichten, was genauere Anpassung der Gewichte ermöglicht.
\section{Lernerfolg. Turing-Test}
Im Zusammenhang mit dem maschinellen Lernen sprechen wir vom Lernerfolg. Allerdings wurde es noch nicht
geklärt, was Erfolg in diesem Fall bedeutet.
Um einen gewöhnlichen Einwand gegen den Erfolg der künstlichen Intelligenz zu erläutern, konstruieren
wir ein futuristisches Beispiel, das in einer oder der anderen Form zum Thema vieler Filme der letzten
Jahre geworden ist. Sagen wir, die Menschen haben einen Supercomputer entwickelt, dessen künstliche
Intelligenz dermaßen fortgeschritten ist, dass er selbst weitere Maschinen entwerfen und produzieren kann.
So beginnt eine neue Ära, in der die Maschinen sich selbt ohne die Einmischung des Menschen entwickeln.
Schlussendlich wird der Mensch zu einer überholten, schwachen Spezies, deren Existenz nicht mehr förderlich
für den weiteren technischen Fortschritt ist, sodass der mächtige Supercomputer sich dazu entscheidet,
die menschliche Art auszulöschen. Nun hatte der Supercomputer, der eine solche Macht erlangt hat, alles über
die Wissenschaft und Technik gelernt, was der Mensch je hätte lernen können, und diese Kenntnisse noch
weiter gebracht hat. Man könnte sich aber fragen, ob der Erfolg des Lernens an der Anzahl der Erkenntnisse
gemessen werden kann. In dem aufgeführten Beispiel hat sich die Technik, die der Mensch sich zuhilfe
schuf, hatte gegen den Menschen gewendet und so gegen das moralische Prinzip, nach dem das menschliche
Leben einen Wert an sich hat, verstoßen.
Wenn wir also vom Erfolg sprechen, beziehen wir den Erfolg nicht nur auf die eigentliche Tätigkeit (das
Erwerben von Erkenntnissen), sondern auch auf das Endresultat --- wie die erworbenen Erkenntnisse angewandt
werden. Bei der Bewertung ihrer Anwendung braucht man wiederum eine Ethik, die es ermöglicht, zu beurteilen,
ob die Anwendung richtig oder falsch, gut oder böse ist. Man sieht sofort, wie schnell das Problem des Erfolgs
sehr komplex und unübersichtlich wird. Ich werde deswegen dafür argumentieren, dass der Erfolg des
Lernens nur in dem Sinne des unmittelbaren Erfolgs ohne die Einbeziehung der Konsequenzen verstanden werden
muss. Desweiteren werde ich versuchen den Erfolg anhand des Turing-Tests etwas genauer zu bestimmen.
Alan Turing stand vor einem ähnlichen Problem, als er das, was wir heute Turing-Test nennen, vorgeschlagen
hat. Das Lernen, die Suche nach Gesetzmäßigkeiten und die Anwendung des Gelernten und Erforschten sind
wichtige Aspekte menschlicher Denktätigkeit. Wenn wir davon sprechen, dass die Computer selbstständig
lernen, stellt sich die Frage, ob sie dann auch denken kennen? Um zu sagen, ob die Computer denken
können, muss man dann definieren, was das Denken eigentlich ist und dann schauen, ob diese Definition
auf die Computersysteme angewandt werden kann.
Nun ist es aber alles andere als trivial, eine Definition für das Denken zu finden. Das eigentliche Problem
besteht aber nicht darin, dass eine solche Definition eine schwierige Aufgabe ist, sondern darin, dass
die Angabe einer Definition des Denkens sich sowohl dem Interessenbereich der Technik als auch
dem Interessenbereich der Wissenschaft entzieht. Wir verbinden das Denken mit den Gehirnaktivitäten. Aber
spielt es für einen Gehirnforscher in seiner wissenschaftlichen Forschung eine Rolle, was das Denken ist?
Er kann durchaus eine private Überzeugung haben, dass das, was wir unter dem Denken verstehen, nichts weiter
als die Gehirnaktivität ist, oder, dass das, was wir im Gehirn beobachten, nur auf eine bestimmte Weise
unser Denken repräsentiert. Aber ob er sich für die erste Möglichkeit, oder für die zweite, oder für eine
dritte entscheidet, ist für seine eigentliche wissenschaftliche Forschung von wenig Bedeutung. Auch
umgekehrt: Wenn man eines Tages weiß, dass man jede geistige Aktivität auf Gehirnaktivitäten zurückführen
kann, bedeutet es, dass ich mich ab dann für einen vollständig von den physikalischen Gesetzen
bestimmten Bio-Roboter halte, der keinen eigenen Willen hat?
Es ist ganz natürlich den Gegenständen menschliche Eigenschaften und Aktivitäten zuzurschreiben:
„Der Computer \textit{will} nicht funktionieren“. Natürlich kann es bei einem kaputten
Rechner keine Rede vom Willen sein. Das ist bloß eine Redewendung. Aber wenn die Computer viel
leistungsfähiger werden, passiert die Zuschreibung viel bewusster, wir fangen an, von ihrer Intelligenz,
ihrem Denken oder dem Erfolg ihrer Aktivitäten zu sprechen. Diese Begriffe sind aber in der Sprache sehr
oft ambivalent und werden intuitiv verwendet. Deswegen ist es auch problematisch, sie auf andere
Gegenstände zu übertragen.
Um das höchstproblematische Reden vom Denken im Fall der Computer zu vermeiden, hat Alan Turing
„The Imitation Game“\autocite[433f]{turing:mind} vorgeschlagen. Dieses Imitationsspiel
wird von drei Personen gespielt: einem Mann (A), einer Frau (B) und einem Fragesteller (C), dessen
Geschlecht für das Spiel irrelevant ist. Der Fragesteller kennt die beiden anderen Personen A und B
nicht und befindet sich in einem anderen Raum. Das Ziel des Spiels für den Fragesteller besteht
darin, richtig zu erraten, wer von A und B ein Mann und wer eine Frau ist. Dabei kann der Fragesteller
den übrigen Spielteilnehmern Fragen stellen und Antworten auf seine Fragen bekommen. Die Teilnehmer
kommunizieren miteinander so, dass der Befragende und die Befragten einander weder sehen noch
hören können, zum Beispiel sie könnten einander Texte über das Internet versenden. A und B sind nicht
verpflichtet, ehrliche Antworten auf die Fragen zu geben. Die Aufgabe von A ist, dem Befragenden zu
helfen, B soll ihn im Gegenteil in die Irre führen.\autocite[433f]{turing:mind}
\begin{quote}
We now ask the question, „What will happen when a machine takes the part of A in this
game?“ Will the interrogator decide wrongly as often when the game is played like this
as he does when the game is played between a man and a woman? These questions replace our
original, „Can machines think?“\autocite[434]{turing:mind}
\end{quote}
Das heißt, die Maschine soll die Rolle eines Spielers --- entweder A oder B --- übernehmen. Es gibt
keine Frau, keinen Mann und Fragesteller mehr, sondern einen Menschen, eine Maschine und den
Fragesteller (menschlich). Wenn es für den Fragesteller genauso schwierig ist, ohne einen direkten
Kontakt eine Maschine von einem Menschen zu unterscheiden, wie eine Frau von einem Mann, dann hat
die Maschine den Turing-Test bestanden.
Im Grunde, um den Erfolg des Lernens eines Computersystems zu bewerten, wird hier eine funktionale
Beschreibung verwendet. Anstatt nach der Washeit der Dinge zu fragen: Was ist Denken? Was ist Erfolg?
Können diese Begriffe auf ein Computersystem angewandt werden?, fragt man, ob und wie gut das System
eine bestimmte Funktion ausführen, einen Test bestehen kann. Der Turing-Test scheint mir auch die beste
Methode zu sein, um den Erfolg des Lernes eines Computersystems zu bewerten. Vor allem, weil so ein
funktionaler Test einen Aufschluss darüber gibt, welche Stufe in der Entwicklung der künstlichen
Intelligenz man bereits erreicht hat, und was noch verbessert werden muss, um den Lernerfolg zu
vergrößern. Er gibt auch eine Skala an, von der abgelesen werden kann, ob ein Algorithmus bessere
Ergebnisse liefert als ein anderer. Dies ermöglicht den technischen Fortschritt und die Verbesserung
der Algorithmen. Diese Skala gibt es aber nicht oder sie ist sehr verschwommen, wenn der Lernerfolg eine
ethische Perspektive haben soll.
Was ich hiermit nicht sagen will, ist, dass die Ethik für die Entwicklung der
künstlichen Intelligenz unwichtig ist. Es macht nur wenig Sinn sie in die Definition des Lernerfolgs
eines künstlichen Systems einzubeziehen. Um so ein System weiter zu entwickeln, braucht man eine
technische Definition des Erfolgs, die ermöglicht, die Schwächen dieses Systems aufzuzeigen, an denen
noch gearbeitet werden soll. Eine voreilige Einbeziehung einer ethischen Bewertung würde den Fortschritt
im Bereich der künstlichen Intelligenz unnötig verkomplizieren und verlangsamen. Eine ethische Bewertung
der künstlichen Intelligenz als solchen und dessen, wie sie eingesetzt wird, ist im Gegenteil nützlich
und nötig, um die Möglichkeit einer bösartigen Anwendung deren zu verringern.
Ich meine auch nicht, dass eine ethische Auseinandersetzung der technischen Entwicklung zeitlich
folgen soll. Es kann zu spät sein, sich mit etwas auseinanderzusetzen, was schon da ist. Vielmehr sollen
die Bereiche des Technischen und Ethischen voneinander getrennt sein. Wenn ein Informatiker oder ein
Mathematiker an einem neuen Algorithmus für maschinelles Lernen arbeitet, ist er wahrscheinlich
gar nicht daran interessiert, ein künstliches System zu erschaffen, das ihm ermöglicht, die Welt
zu beherrschen, womöglich ist er nur an seinem Fach interessiert und will sehen, wie weit man die
künstliche Intelligenz bringen kann. Natürlich soll man sich Gedanken darüber machen, was passiert,
wenn man den neuen Algorithmus oder die neue Technologie auf den Markt bringt, das darf aber nicht
der eigentlichen Forschung im Wege stehen.
\section{Dritt- und Erstperson-Perspektive}
Kommen wir auf die Frage „Können die Maschinen denken?“ zurück. Was ist an dieser
Frage so problematisch, sodass Alan Turing sie umzugehen suchte, außer dass der Begriff
„Denken“ schwierig zu definieren ist. Oder warum ist er schwierig zu
definieren? Das Denken für den Menschen ist ein \textit{Erlebnis}, das heißt ich erlebe mich
selbst als ein denkendes Wesen. Ich gehe davon aus, dass auch die anderen Menschen sich als
denkende Wesen erleben, obwohl ich nicht mit Sicherheit sagen kann, wie sich das Denken eines
anderen Menschen für ihn anfühlt, was und wie er denkt. Man denke nur an die Diskussionen, ob
Tiere Freude oder Leiden empfinden können, ob sie denken können. Es ist relativ naheliegend,
dass andere Menschen denken können, aber es ist nicht klar, ob man das von den anderen Lebewesen
behaupten kann. Desto unklarer ist es, wenn man von etwas spricht, was überhaupt kein
Lebewesen ist.
Anstatt der Maschine einen Geist und eine Art Innerlichkeit zuzuschreiben, entwickelt sich aber
die Tendenz, den Menschen mechanisch zu verstehen. Wenn Sören Kierkegaard sagt:
„Der Mensch ist Geist“\autocite[11]{kierkegaard:krankheit}, so heute ist der Mensch immer
öfter sein Gehirn: „In Germany, leading neuroscientists like Wolf Singer and Gerhard
Roth are omnipresent in TV and press. They speak of the brain as if they were talking about a
person.“\autocite[164]{foerster:neuroturn} Kierkegaards Mensch und sein Geist waren nicht bloß
eine immaterielle Substanz, sondern vielmehr eine Synthese „aus Unendlichkeit und Endlichkeit,
aus dem Zeitlichen und dem Ewigen, aus Freiheit und
Notwendigkeit, [\dots]“\autocite[11]{kierkegaard:krankheit} Ob die Beschreibung des Menschen
als Gehirn genauer zutrifft, ist fraglich. Yvonne Förster in ihrem Artikel „Effects of the
Neuro-Turn: The Neural Network as a Paradigm for Human Self-Understanding“ macht darauf
aufmerksam, dass obwohl bei der Erforschung des Gehirns nur die Drittperson-Perspektive in die Betrachtung
einbezogen wird, eine Verschiebung der Terminologie von der Philosophie zu den Neurowissenschaften
stattfindet:
\begin{quote}
While phylosophy works with concepts, experience, reflection, and linguistic
description, neuroscience, on the other hand, uses these philosophical terms within
a third-person framework of observation, imaging techniques, and
measurements.\autocite[163]{foerster:neuroturn}
\end{quote}
Eine Reihe von Begriffen, wie der freie Wille oder das Bewusstsein, für die die Innenperspektive
unentbehrlich ist, werden aus der Drittperson-Perspektive beurteilt und beschrieben.
Doris Nauer spricht auch davon, dass bei der Erforschung geistiger Funktionen
„NaturwissenschaftlerInnen zunehmend die Interpretationsgrenzen rein naturwissenschaftlicher
Forschung überschreiten“.\autocite[35]{nauer:seelsorge}
Außerdem merkt Förster an, dass die Neurowissenschaften keinen direkten Zugang auch zum Gehirn oder den
Neuronen selbst haben, vielmehr arbeiten sie mit Modellen:
\begin{quote}
The neural gains its visibility only via technology. The process of making the neural visible is
not a simple representation of something otherwise hidden. Rather it is a production of images by
means imaging techniques. What we get to see is not the inside of our skull, not copies of our
neurons, but reconstructions modeled according to a certain set of rules of computation. The neural
net as we know it from neuroscientific imagery is not a photograph of brain parts. It is deeply
technological mediated.\autocite[172]{foerster:neuroturn}
\end{quote}
Das Selbstverständnis des Menschen und das Verständnis der Maschine und der künstlichen Intelligenz sind
voneinander abhängig. Wenn wir die Maschinen konstruieren, die selbst lernen und vielleicht denken können,
und so den Menschen nachahmen, lernen wir auch etwas über die menschlichen Denkprozesse und dem
Zusammenhang zwischen dem Bewusstsein und dem Gehirn. Andererseits um
zu entscheiden, ob die Maschinen denken oder ein geistiges Leben haben können, ist unser Menschenbild
wichtig, weil es von ihm abhängt, ob sich das, was wir unter dem Menschen verstehen, auf die Maschine
übertragen lässt.
\section{Zum Begriff der Intelligenz}
Eine der Fragen, die sich noch stellen, ob wir im Falle der künstlichen Intelligenz überhaupt von
der \textit{Intelligenz} sprechen kann, wie wir von der menschlichen sprechen. Ich möchte von vornherein
sagen, dass diese Frage nicht eindeutig zu beantworten ist. Von einem Menschen zu sagen, er sei intelligent,
ist nicht dasselbe, wie zu sagen: „Zwei ist eine gerade Zahl“.
Erstens, je nachdem wer das Wort „intelligent“ sagt, kann man darunter unterschiedliche
Eigenschaften meinen. Für einen mag intelligent derjenige sein, der über viele Fachkentnisse in
einem bestimmten Bereich verfügt. Für einen anderen ist es der, der allgemein gebildet ist und nicht
nur in bestimmten Bereichen. Für den dritten spielen die erworbenen Kenntnisse überhaupt eine geringere
Rolle, viel wichtiger, um intelligent zu sein, sei es, schlau zu sein, schnell die Lösungen für die
auftretenden Probleme zu finden.
Zweitens hängt die Antwort auf die Frage, ob man so eine Eigenschaft wie „Intelligenz“
auf eine Maschine übertragen kann, sehr stark von anthropologischen Ansichten der jeweiligen Person.
Ist der Mensch selbst wahrscheinlich nichts weiter als eine Art von der Natur erschaffener Roboter?
In diesem Fall kann wohl auch eine vom Menschen konstruierte Maschine Intelligenz haben. Wenn der Mensch
dagegen ein geistiges Wesen ist, das nicht vollständig durch physikalische Gesetze determeniert ist,
dann ist es qualitativ etwas anderes als eine Maschine und man könnte argumentieren, dass deswegen bestimmte
Eigenschaften wie Intelligenz nur dem Menschen zugeschrieben werden können.
Der Stand der Entwicklung rechtfertigt nicht immer die Anwendung des Begriffes „Intelligenz“
im Bezug auf die Maschinen. Bereits heutige Computer sind in bestimmten Bereichen
intelligenter als die Menschen. Zum Beispiel kann jeder der heutigen Prozessoren (oder CPU,
\textbf{C}entral \textbf{P}rocessing \textbf{U}nit) einfache Berechnungen, wie Multiplizieren,
Dividieren, Addieren oder Substrahieren, vielfach schneller durchführen als ein Mensch. Und diese
Fähigkeit besitzten bereits die Computer der neunziger Jahre des vergangenen Jahrhunderts, als die künstliche
Intelligenz noch nicht so verbreitet war. Schnelles Rechnen kann auch ein Merkmal der Intelligenz sein.
Und doch spricht man von der künstlichen Intelligenz meistens in Bezug auf maschinelles Lernen. Dies zeigt,
dass wenn man von intelligenten Maschinen spricht, meint man eine bestimmte Art von der Intelligenz, und
zwar meint man die Maschinen, die das Können besitzen, nicht nur die einprogrammierten
„Kenntnisse“ anzuwenden, sondern auch neue Erkenntnisse selbstständig zu gewinnen. Das heißt
Intelligenz knüpft hier an die \textit{schöpferische} Kraft des Menschen, an die Kraft etwas neues
zu \textit{erschöpfen}. Natürlich ist es nicht dasselbe wie Erschaffen eines Kunstwerkes oder eines
Musikstückes, weil das, was erkannt wird, schon da ist, es nicht aus Nichts geschaffen wird. Und doch
ist auch das Gewinnen der Erkenntnisse aus der Erfahrung, die vorher nicht waren, ist das Gewinnen von
etwas \textit{neuem}, also ein schöpferischer Vorgang. Und dieser Übergang zwischen einer die Befehle
ausführenden und einer lernenden Maschine ist wohl die Grenze, ab der die Maschinen
\textit{intelligent} werden.
Wie weit die künstliche Intelligenz reicht oder reichen kann, lässt sich noch nicht sagen. Wir haben
noch keine Roboter, die malen, Romane oder Lieder schreiben oder physikalische Gesetze entdecken. Wie
am Beispiel mit dem neuronalen Netz gezeigt wurde, geht es bei maschinellem Lernen um das Erkennen
bestimmter Muster in der Eingabedaten. Falls so ein Muster tatsäschlich erkannt wurde, dann können anhand
dessen auch neue Daten ausgewertet werden. Dem lernenden System geht es nicht um die Forschung oder die
Suche nach der Wahrheit. Und hier ist es nicht mal wichtig, was Wahrheit ist, und ob es sie gibt. Wenn
ein Schriftsteller schreibt, sehnt er oft aus dem tiefsten seines Herzens, seinen Lesern etwas
mitzuteilen, seine Wahrheit zu verkünden. Auch ein Forscher kann von diesem Gefühl bewegt werden,
selbst wenn seine Theorie sich später als falsch erweist, hat er versucht, etwas Wahres zu entdecken.
Ein lernendes System hat überhaupt keinen Sinn für die Wahrheit. Es wurde programmiert, um Muster in
den Daten zu erkennen und das tut es. Wenn ich weiß, wie ein System aufgebaut ist, kann ich es von
vornherein mit manipulierten Daten füttern, sodass es etwas falsch lernt, und es wird sich nicht
betrogen fühlen. Wobei ich zugeben muss, dass es auch einem Menschen passieren kann, dass er sich
auf falsche, falsch ausgewählt Daten, stützt, und deswegen zu inkorrekten Ergebnissen gelangt.
Die Mustererkennung ist wichtig auch für das menschliche Überleben. Allerdings vermag der Mensch auch
abstrakt zu denken. Es gibt zum Beispiel in der Natur keine Zahlen, es gibt nur abzählbare Gegenstände.
Man muss sich von den einzelnen Gegenständen beziehungsweise ihrer endlichen Anzahl abstrahieren können,
um auf die unendliche Menge von natürlichen Zahlen kommen. Diese Fähigkeit zum abstrakten Denken ist etwas,
was den Menschen gegenüber den Maschinen immer noch auszeichnet.
\section{Grenzen der Anwendung von maschinellem Lernen}
Zwar ist die künstliche Intelligenz zum selbstständigen Lernen fähig, ist kein selbstständiges
Lebewesen wie der Mensch, sondern nur ein Instrument unter vielen anderen.
Nehmen wir an, wir wollen quadratische Gleichungen in der Normalform lösen:
\begin{equation}
x^2 + px + q = 0
\end{equation}
Dafür beabsichtigen wir ein Programm zu schreiben, das die 2 Parameter, $p$ und $q$, als
Eingabewerte annimmt und die Gleichung nach $x$ auflöst. Man kann diese Aufgabe durchaus mithilfe der
künstlichen Intelligenz lösen. Wir entwerfen ein neuronales Netz, das zwei Neuronen in der
Eingabeschicht und zwei in der Ausgabeschicht hat. Dann lösen wir einige Tausende solcher Gleichungen
selbst und übergeben die Eingaben und die Lösungen dem Netz, damit es aus diesen Daten lernen kann.
Dann testen wir, ob das Netz nun selbst richtige Antworten produzieren kann. Wenn es nicht der Fall
sein soll, bereiten wir weitere Angaben und Lösungen vor. Irgendwann haben wir das neuronale Netz
ausreichend trainiert, sodass es jetzt selbst solche Gleichungen lösen kann.
Eigentlich wissen wir aber, wie man eine quadratische Gleichung löst. Genauso gut könnten wir den folgenden
Algorithmus in einem Programm implementieren:\autocite[Vgl.][10f]{lothar:math}
\begin{enumerate}
\item Berechne die Diskriminante $D$:
\begin{equation}
D = {(p/2)}^2 - q
\end{equation}
\item Wenn $D \geq 0$ ist, gibt es zwei reelle Lösungen:
\begin{equation}
x_{1/2} = -\frac{p}{2} \pm \sqrt{D}
\end{equation}
\item Wenn $D < 0$ ist, gibt es zwei konjugiert komplexe Lösungen:\autocite[Vgl.][676]{lothar:math}
\begin{equation}
x_{1/2} = -\frac{p}{2} \pm j \cdot \sqrt{\left|D\right|}
\end{equation}
\end{enumerate}
Der Aufwand, dieses Programm, zu schreiben ist viel geringer als die Variante mit der künstlichen
Intelligenz. Was noch viel wichtiger für ein Programm, das mathematische Berechnungen durchführt, ist,
ist, dass wir wissen, dass, wenn der Algorithmus korrekt implementiert ist, er richtige Ergebnisse
liefert. Im Falle des neuronalen Netzes ist es nicht so. Wenn das neuronale Netz komplex genug ist,
können wir nicht mehr nachvollziehen, wie eine bestimmte Berechnung durchgeführt wird, das heißt, wir
können nicht überprüfen, ob der Algorithmus für alle Paare $p$ und $q$ das richtige Ergebnis liefert.
Für die Anwendungsfelder des maschinellen Lernens ist eine solche Genauigkeit auch nicht unbedingt
erforderlich. Wenn ein soziales Netzwerk setzt künstliche Intelligenz ein, um gezielte Werbung
anzuzeigen, dann ist es durchaus vorteilhaft, wenn die Werbung den Nutzer anspricht, aber es ist immer
noch zulässig, wenn die Wahl der Werbung nicht optimal ist. Es genügt, wenn die Werbung
\textit{interessant genug} für den Nutzer ist, oder dass ein gewisser Profit durch sie erreicht wird.
Künstliche Intelligenz ist keine universelle Lösung für alle Probleme. Sie ist sehr nützlich für
die Auswertung von großen Mengen an Daten und für die Suche nach Mustern in diesen, aber ist noch
nicht fähig abstrakte, e\@.g\@. mathematische Probleme zu lösen.
\section{Fazit}
Über viele Fragen lässt es heute nur spekulieren. Können die Maschinen alle Tätigkeiten ausüben, die
die Menschen ausüben? Sind sie eine neue Evolutionsstufe, sodass sie die Menschen eines Tages
verdrängen und überflüssig machen? Oder werden die Maschinen und Menschen weiterhin friedlich
coexistieren? Einige Autoren versuchen bereits diese Fragen zu beantworten. Ich wage heute noch nicht,
auf sie eine Antwort zu geben. Schließlich ist die Entwicklung der Wissenschaft und der Technik
auch von einer Reihe von sozialen, politischen und wirtschaflichen Faktoren mitbestimmt.
Künstliche Intelligenz und Maschinelles Lernen ist ein junges Konzept, dem viel Aufmerksamkeit von
verschiedenen Siten geschenkt wird. Die Technik und Informatik sind daran interessiert, weil es ermöglicht
neue, selbst „denkende“ Programme zu schreiben; Naturwissenschaften hoffen durch künstliche
auch die menschliche Intelligenz besser zu verstehen; man sieht auch Potenzial, den Menschen noch mehr
vom Last der Arbeit zu befreien, aber man warnt auch vor den Gefahren der Verselbständigung der
Computertechnik oder deren Missbrauch. Naturwissenschaftliche Forschung hatte schon fatale Folgen, sie
ermöglichte zum Beispiel eines Tages die Erschaffung der Atomwaffen, was vielen unschuldigen Menschen
ihr Leben kostete. Doch sie hat auch einen soliden Beitrag zur modernen Medizin und Technik geleistet,
auf die wir uns jeden Tag verlassen. Um die künstliche Intelligenz scheint es ähnlich zu stehen: Es ist
ein kontroverses Thema.