KI. Eine Begriffsklärung in TeX

This commit is contained in:
2024-03-25 20:55:01 +01:00
parent a559a37c69
commit dc8f0673cd
10 changed files with 727 additions and 685 deletions

View File

@@ -152,14 +152,12 @@ postCtx tags
<> flevumContext tags
where
dateField' :: Item String -> Compiler String
dateField' i = do
time <- getItemUTC defaultTimeLocale $ itemIdentifier i
pure $ formatDate time
dateField' = fmap formatDate
. getItemUTC defaultTimeLocale
. itemIdentifier
flevumContext :: Tags -> Context String
flevumContext tags
= tagsCloud tags
<> defaultContext
flevumContext = (<> defaultContext) . tagsCloud
tagsCloud :: Tags -> Context String
tagsCloud tags
@@ -182,13 +180,12 @@ tagsCloud tags
pure $ Item tagId $ if isActiveClass then "active" else ""
withoutRootRoute :: Routes
withoutRootRoute = customRoute generateRoute
where
generateRoute = joinPath
. drop 1 -- posts/
. splitDirectories
. flip replaceExtension "html"
. toFilePath
withoutRootRoute = customRoute
$ joinPath
. drop 1 -- posts/
. splitDirectories
. flip replaceExtension "html"
. toFilePath
cleanIndexUrls :: Item String -> Compiler (Item String)
cleanIndexUrls = return . fmap (withUrls cleanIndex)
@@ -260,14 +257,6 @@ rules = do
tagsRules tags $ createTagPage tags
-- Blog posts.
match "posts/**.html" $ do
route withoutRootRoute
compile $ getResourceBody
>>= saveSnapshot "content"
>>= loadAndApplyTemplate "templates/post.html" (postCtx tags)
>>= loadAndApplyTemplate "templates/default.html" (postCtx tags)
>>= cleanIndexUrls
match "posts/**.tex" $ do
route withoutRootRoute
compile $ bibtexCompiler

View File

@@ -1,22 +0,0 @@
<script type="text/x-mathjax-config">
MathJax.Hub.Config({
config: ["MMLorHTML.js"],
jax: ["input/MathML","output/HTML-CSS","output/NativeMML", "output/PreviewHTML"],
extensions: [
"mml2jax.js",
"MathMenu.js",
"MathZoom.js",
"fast-preview.js",
"AssistiveMML.js",
"a11y/accessibility-menu.js"
],
MathML: {
extensions: ["content-mathml.js"]
},
"HTML-CSS": {
availableFonts: ["TeX"],
imageFont: null
}
});
</script>
<script src="https://www.flevum.de/assets/js/MathJax/MathJax.js"></script>

Binary file not shown.

After

Width:  |  Height:  |  Size: 18 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 22 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 25 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 27 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 28 KiB

View File

@@ -1,640 +0,0 @@
---
layout: post
date: 2017-12-25 00:00:00
tags: Aufsatz
title: Künstliche Intelligenz. Eine Begriffsklärung
teaser:
<p>Es ist relativ neu, dass man angefangen hat, technischen Artefakten menschliche Eigenschaften zuzuschreiben.
So spricht man heute von „intelligenten“ Maschinen. Es gibt intelligente Menschen, die gebildet,
begabt sind. Die Maschinen, Computer werden programmiert, um einen bestimmten Zweck zu erfüllen, sie arbeiten
nach einem vordefinierten Algorithmus. Bestenfalls kann so ein Algorithmus aktualisiert werden.
Wäre es jedoch vielleicht möglich, ein Programm zu schreiben, das das menschliche Lernvermögen nachbildet
und lernen kann? Es ist tatsächlich möglich und in diesem Fall spricht man von der <em>künstlichen Intelligenz</em>
(<em>Artificial Intelligence</em>) und dem <em>maschinellen Lernen</em> (<em>Machine Learning</em>), von der
Fähigkeit einer Maschine, selbst zu lernen, also den Algorithmus, nach dem sie arbeitet, weiter zu entwickeln
und zu verändern. Das, was eine Maschine auf diese Weise gelernt hat, ist oft so komplex, dass man nicht mehr
sagen kann, wie genau sie das gelernt hat und wie sie zu Ergebnissen kommt, die sie liefert. Ob es ausreichend
ist, von der Intelligenz zu sprechen, im selben Sinne, wie man von der menschlichen Intelligenz spricht, ist
eine schwierige Frage. Selbst die menschliche Intelligenz ist kein eindeutig definierter, ein vager Begriff,
der viele subjektive Merkmale in sich trägt.</p>
---
<section>
<h3>Einleitung</h3>
<p>Die Technik gibt es seit sehr langem. Der Mensch war schon immer abhängig von seiner Technik und
verdankte ihr seinen kulturellen Aufstieg. Sie erleichterte das Überleben in der Natur, ermöglichte
den Bau der Städte und die Entwicklung der Zivilisationen, half bei der Kriegsführung und der Erforschung
und dem Bewohnen neuer Territorien. Mit der Zeit wurde die Technik immer komplexer: Angefangen mit einfachen
Werkzeugen hat man gelernt, komplexere Maschinen zu bauen. Dies hatte wiederum eine enorme Wirkung auf die
Kultur. Viele schwere Arbeiten konnten auf die Maschinen verlagert werden; die Bildung hat einen neuen
Aufschwung bekommen; Wissenschaften hatten neue Mittel, um Experimente durchzuführen und immer weiter
fortzusrchreiten. Schon sehr lange ist der Mensch von seiner Technik umgeben; Es ist nicht erst gestern
passiert, dass er sich von ihr abhängig gemacht hat und seine Geschichte mit der der
Technik verbunden hat. Was sich aber im Laufe der Zeit gewandelt hat, ist die Art der angesetzten Technik.</p>
<p>Es ist relativ neu, dass man angefangen hat, technischen Artefakten menschliche Eigenschaften zuzuschreiben.
So spricht man heute von „intelligenten“ Maschinen. Es gibt intelligente Menschen, die gebildet,
begabt sind. Die Maschinen, Computer werden programmiert, um einen bestimmten Zweck zu erfüllen, sie arbeiten
nach einem vordefinierten Algorithmus. Bestenfalls kann so ein Algorithmus aktualisiert werden.
Wäre es jedoch vielleicht möglich, ein Programm zu schreiben, das das menschliche Lernvermögen nachbildet
und lernen kann? Es ist tatsächlich möglich und in diesem Fall spricht man von der <em>künstlichen Intelligenz</em>
(<em>Artificial Intelligence</em>) und dem <em>maschinellen Lernen</em> (<em>Machine Learning</em>), von der
Fähigkeit einer Maschine, selbst zu lernen, also den Algorithmus, nach dem sie arbeitet, weiter zu entwickeln
und zu verändern. Das, was eine Maschine auf diese Weise gelernt hat, ist oft so komplex, dass man nicht mehr
sagen kann, wie genau sie das gelernt hat und wie sie zu Ergebnissen kommt, die sie liefert. Ob es ausreichend
ist, von der Intelligenz zu sprechen, im selben Sinne, wie man von der menschlichen Intelligenz spricht, ist
eine schwierige Frage. Selbst die menschliche Intelligenz ist kein eindeutig definierter, ein vager Begriff,
der viele subjektive Merkmale in sich trägt.</p>
<p>Dass wir die Programme entwickeln können, die sich selbst „weiterschreiben“, weiterentwickeln
können, birgt viele Möglichkeiten und viele Gefahren in sich. Einerseits können die Maschinen dem Menschen
nicht nur schwere körperliche Arbeit abnehmen, sondern auch einige geistige Tätigkeiten. Zum Beispiel das
Übersetzen von Texten in andere Sprachen kann teilweise von Computern übernommen werden, die ihre
„Sprachkenntnisse“ selbst immer mehr verbessern können. Andererseits, wenn man nicht mehr
versteht, wie genau die von ihm konstruierte Maschine handelt, fühlt man sich bedroht. Es werden auch Stimmen
laut, dass die nächste Stufe der Evolution nicht eine biologische, sondern eine technische Evolution sei und,
dass der Mensch sehr bald vom Werk seiner Hände überholt
werde.<sup id="cite_ref-1" class="reference"><a href="#cite_note-1">1</a></sup></p>
<p>Das Ziel dieser Arbeit ist, auf die künstliche Intelligenz nicht nur aus technischer,
sondern auch philosophischer Sicht zu schauen. Wenn wir von der künstlichen Intelligenz sprechen,
verwenden wir viele Begriffe wie Lernen, Lernerfolg, Intelligenz, deren Bedeutung aber nicht immer
klar ist. Und ich finde, dass das, wie wir über die Maschinen sprechen,
viel darüber sagt, wie sich unser eigenes Menschenbild im technischen Zeitalter verändert oder verändert hat.</p>
<h3>Maschinelles Lernen</h3>
<p>Maschinelles Lernen ist ein Zweig der künstlichen Intelligenz, in dem es darum geht, einem künstlichen
System das Gewinnen von Wissen zu ermöglichen. Ein auf diese Weise lernendes System kann eine gestellte
Aufgabe nicht nach einem vordefinierten Algorithmus lösen, sondern ist fähig, selbst zu lernen, wie die
Aufgabe zu lösen ist.</p>
<p>Maschinelles Lernen ist sehr vielfältig und hat verschiedene Anwendungen. Es kann grob in zwei große Kategorien
unterteilt werden: überwachtes und unüberwachtes Lernen.</p>
<h4>Überwachtes Lernen (Supervised Learning)</h4>
<p>Beim überwachten Lernen stehen dem Lernenden eine Menge von Eingaben und den dazugehörigen Ausgaben zur Verfügung.
Das heißt es gibt eine Reihe von Ausgangsituationen und eine Reihe möglicher Antworten beziehungsweise Reaktionen
auf jene Situationen, wobei zwischen den ersteren und den letzteren eine Abhängigkeit vorhanden ist.
Das Ziel des Algorithmus ist jetzt diese Abhängigkeit zu entdecken, sie zu „erlernen“.</p>
<blockquote>
<p><i>Supervised learning</i> algorithms assume that some variable X is
designated as the target for prediction, explanation, or inference, and that
the values of X in the dataset constitute the "ground truth" values for
learning.<sup id="cite_ref-2" class="reference"><a href="#cite_note-2">2</a></sup></p>
</blockquote>
<p>Zum überwachten Lernen gehört auch das sogenannte <strong>bestärkende Lernen (Reinforcement Learning)</strong>.
Das ist das Lernen durch „Versuch und Irrtum“. Dem lernenden System steht hier keine Menge
möglicher Ausgaben, sodass der Algorithmus aus vorhandenen Daten lernen könnte, dafür kann es mit seiner
Umgebung interagieren und von dieser „belohnt“ oder „bestraft“ werden. Also der
Algorithmus wird aus der Umgebung bewertet und anhand dieser Bewertung kann er lernen, wie er anhand
einer Eingabe zu der richtigen Ausgabe gelangt.</p>
<p>„The learning algorithms used on reinforcement learning adjusts
the internal neural parameters relying on any qualitative or quantitative information
acquired through the interaction with the system (environment) being mapped,
[&hellip;]“<sup id="cite_ref-3" class="reference"><a href="#cite_note-3">3</a></sup></p>
<p>Maschinelles und bestärkendes Lernen wird schon seit längerer Zeit bei Spam-Erkennung verwendet. Als Spam
werden unerwünschte E-Mails, zum Beispiel Werbung, die man nicht bestellt hat, genannt. Es gibt auch einen
Gegenbegriff zum Spam: Ham, also normale E-Mails, die man in seinem E-Mail-Postfach erwartet.</p>
<p>Wie ein Programm lernt, Spam von Ham zu unterscheiden, kann man damit vergleichen, wie es ein Mensch lernt.
Sie bekommen unerwünschte Werbung per Post. Es ist ein Briefumschlag mit einer unpersönlichen Anrede und ein
kleines Heft. Sie blättern es durch und sehen, dass sie daran nicht interessiert sind und schmeißen es weg.
Wenn Sie ein ähnliches Heft nächstes Mal bekommen, blättern Sie vielleicht nochmal durch, um sicher zu sein,
dass es nichts Wichtiges bzw. etwas, was Sie abonniert haben, ist. Wenn Sie einige Wochen später nochmal so ein
Heft bekommen, reicht nur ein Blick. Vielleicht haben Sie den Namen desselben Unternehmens oder bekannte
Produktabbildungen oder einen ähnlichen Werbetext gesehen &mdash; Sie schmeißen es, ohne genauer zu schauen, weg.
Sie haben gelernt, dass derartige Hefte mit Werbung keine für Sie hilfreiche Information enthalten.</p>
<p>In vielen Mail-Programmen gibt es inzwischen die Funktion „Als Spam markieren“. Wenn eine E-Mail
als Spam markiert wird, analysiert der Spam-Filter den Inhalt der E-Mail und merkt, wie viele Male jedes Wort
in der Nachricht vorkommt. Dieselbe Analyse macht der Filter für die anderen Nachrichten, die nicht als Spam
markiert wurden. Langsam sammelt sich eine Datenbank mit der Anzahl der Vorkommnisse verschiedener Wörter in
Spam- und Ham-Nachrichten. Anhand dieser Daten kann dann der Filter erkennen, dass bestimmte Wörter nur in
Spam-Mails vorkommen, aber nicht in Ham, und kann ohne die Einmischung des Menschen entscheiden, ob eine E-Mail
unerwünscht ist oder nicht. So ein Verfahren ist natürlich nicht fehlerfrei. Es kommt sowohl dazu, dass Spam durch
so einen Filter unerkannt durchdringen kann, als auch dazu, dass Ham im Spam-Ordner landet. Auf diversen Webseiten
kann man lesen: „Wenn Sie keine E-Mail innerhalb von <i>X</i> Stunden erhalten haben, überprüfen Sie Ihren
Spam-Ordner“. Wenn Ham als Spam eingestuft wird, spricht man vom <i>False-Positive</i>. Es gibt meistens
wiederum die Funktion, um die Spam-Markierung von der E-Mail zu entfernen. Dadurch kann der Filter neu lernen
und seine Datenbank aktualisieren beziehungsweise anpassen.</p>
<p>Wir haben gesehen, dass eine der Möglichkeiten, Spam zu erkennen, darauf basiert, den Spam-Filter mit der
Umgebung, also mit dem Benutzer, kommunizieren zu lassen. Der Benutzer hat eine Möglichkeit dem Filter mitzuteilen,
ob eine E-Mail Spam oder Ham ist, woraus der Filter lernen kann. Je länger so ein Filter eingesetzt wird und je
mehr er auf diese Weise trainiert wird, desto geringer wird die Wahrscheinlichkeit des False-Positives.</p>
<h4>Unüberwachtes Lernen (Unsupervised Learning)</h4>
<blockquote>
<p><i>Unsupervised learning</i> algorithms do not single out any particular
variables as a target or focus, and so aim to provide a general
characterization of the full dataset.<sup id="cite_ref-4" class="reference"><a href="#cite_note-4">4</a></sup></p>
</blockquote>
<p>Beim unüberwachten Lernen wird keine bestimmte Ausgabe, kein bestimmter Wert bei der Ausgabe erstrebt, wie es
bei dem überwachten Lernen der Fall ist. Vielmehr geht es darum, eine innere Struktur in den Daten zu entdecken.</p>
<p>Ein Standardbeispiel für unüberwachtes Lernen ist ein soziales Netzwerk. In großen sozialen Netzwerken kann
man sein Interesse oder Desinteresse dadurch zeigen, dass man bestimmte Beitrage positiv markiert
beziehungsweise blockiert. Ein gutes soziales Netzwerk würde, um seinen Nutzern genüge zu tun, die einem
bestimmten Benutzer angezeigten Beiträge zensieren, und ihm nur diejenigen zeigen, die er wahrscheinlich
mag und nicht diejenigen, die er blockieren würde. Aber das Netzwerk weiß nicht im Voraus, dass es
Beiträge zu verschiedenen Themen gibt: Kunst, Politik, Sport und so weiter. Schließlich können immer neue
Themen auftauchen. Das Netzwerk lernt selbst die Beiträge und Benutzer zu klassifizieren. Das Lernen geht
über die Erforschung der Vorlieben einer bestimmten Person hinaus. Nehmen wir an in Profilen zweier Personen
unter „Interessen“ steht, dass sie gern Tennis spielen und beide lesen gerne Nachrichten eines
Sportvereins, der eine eigene Seite im sozialen Netzwerk hat. Wenn eine dritte Person jetzt angibt, dass sie
gern Tennis spielt, hat das soziale Netzwerk den Grund anzunehmen, dass dieser Person auch die Nachrichten
des Sportvereins gefallen werden. Das heißt das Netzwerk lernt aufgrund komplexer Zusammenhänge, dass es bestimmte
Gruppen, Themen- und Interessenbereiche gibt. Es gibt hier keine richtige Antwort, man überwacht nicht alle
registrierten Benutzer und korrigiert das Netzwerk nicht: Nein, dieser Mensch gehört dieser Gruppe nicht. Und
wenn ich einen Beitrag blockiere und markierte, bedeutet es nicht unbedingt, dass ich eine Bewertung abgebe, wie
gut das Netzwerk gelernt hat. Es kann schließlich sein, dass ich heute keine Lust auf meinen Sportverein habe,
sonst aber gerne lese, was er schreibt.</p>
<p>Die Unterteilung in Gruppen, Klassifizierung ist in der Wirklichkeit sehr komplex und unterzieht sich oft der
Möglichkeit, sich auf irgendeine Weise kontrollieren oder bewerten zu lassen. Unüberwachtes Lernen kann hier
Abhilfe schaffen.</p>
<h3>Lernerfolg. Turing-Test</h3>
<p>Im Zusammenhang mit dem maschinellen Lernen sprechen wir vom Lernerfolg. Allerdings wurde es noch nicht
geklärt, was Erfolg in diesem Fall bedeutet.</p>
<p>Um einen gewöhnlichen Einwand gegen den Erfolg der künstlichen Intelligenz zu erläutern, konstruieren
wir ein futuristisches Beispiel, das in einer oder der anderen Form zum Thema vieler Filme der letzten
Jahre geworden ist. Sagen wir, die Menschen haben einen Supercomputer entwickelt, dessen künstliche
Intelligenz dermaßen fortgeschritten ist, dass er selbst weitere Maschinen entwerfen und produzieren kann.
So beginnt eine neue Ära, in der die Maschinen sich selbt ohne die Einmischung des Menschen entwickeln.
Schlussendlich wird der Mensch zu einer überholten, schwachen Spezies, deren Existenz nicht mehr förderlich
für den weiteren technischen Fortschritt ist, sodass der mächtige Supercomputer sich dazu entscheidet,
die menschliche Art auszulöschen. Nun hatte der Supercomputer, der eine solche Macht erlangt hat, alles über
die Wissenschaft und Technik gelernt, was der Mensch je hätte lernen können, und diese Kenntnisse noch
weiter gebracht hat. Man könnte sich aber fragen, ob der Erfolg des Lernens an der Anzahl der Erkenntnisse
gemessen werden kann. In dem aufgeführten Beispiel hat sich die Technik, die der Mensch sich zuhilfe
schuf, hatte gegen den Menschen gewendet und so gegen das moralische Prinzip, nach dem das menschliche
Leben einen Wert an sich hat, verstoßen.</p>
<p>Wenn wir also vom Erfolg sprechen, beziehen wir den Erfolg nicht nur auf die eigentliche Tätigkeit (das
Erwerben von Erkenntnissen), sondern auch auf das Endresultat &mdash; wie die erworbenen Erkenntnisse angewandt
werden. Bei der Bewertung ihrer Anwendung braucht man wiederum eine Ethik, die es ermöglicht, zu beurteilen,
ob die Anwendung richtig oder falsch, gut oder böse ist. Man sieht sofort, wie schnell das Problem des Erfolgs
sehr komplex und unübersichtlich wird. Ich werde deswegen dafür argumentieren, dass der Erfolg des
Lernens nur in dem Sinne des unmittelbaren Erfolgs ohne die Einbeziehung der Konsequenzen verstanden werden
muss. Desweiteren werde ich versuchen den Erfolg anhand des Turing-Tests etwas genauer zu bestimmen.</p>
<p>Alan Turing stand vor einem ähnlichen Problem, als er das, was wir heute Turing-Test nennen, vorgeschlagen
hat. Das Lernen, die Suche nach Gesetzmäßigkeiten und die Anwendung des Gelernten und Erforschten sind
wichtige Aspekte menschlicher Denktätigkeit. Wenn wir davon sprechen, dass die Computer selbstständig
lernen, stellt sich die Frage, ob sie dann auch denken kennen? Um zu sagen, ob die Computer denken
können, muss man dann definieren, was das Denken eigentlich ist und dann schauen, ob diese Definition
auf die Computersysteme angewandt werden kann.</p>
<p>Nun ist es aber alles andere als trivial, eine Definition für das Denken zu finden. Das eigentliche Problem
besteht aber nicht darin, dass eine solche Definition eine schwierige Aufgabe ist, sondern darin, dass
die Angabe einer Definition des Denkens sich sowohl dem Interessenbereich der Technik als auch
dem Interessenbereich der Wissenschaft entzieht. Wir verbinden das Denken mit den Gehirnaktivitäten. Aber
spielt es für einen Gehirnforscher in seiner wissenschaftlichen Forschung eine Rolle, was das Denken ist?
Er kann durchaus eine private Überzeugung haben, dass das, was wir unter dem Denken verstehen, nichts weiter
als die Gehirnaktivität ist, oder, dass das, was wir im Gehirn beobachten, nur auf eine bestimmte Weise
unser Denken repräsentiert. Aber ob er sich für die erste Möglichkeit, oder für die zweite, oder für eine
dritte entscheidet, ist für seine eigentliche wissenschaftliche Forschung von wenig Bedeutung. Auch
umgekehrt: Wenn man eines Tages weiß, dass man jede geistige Aktivität auf Gehirnaktivitäten zurückführen
kann, bedeutet es, dass ich mich ab dann für einen vollständig von den physikalischen Gesetzen
bestimmten Bio-Roboter halte, der keinen eigenen Willen hat?</p>
<p>Es ist ganz natürlich den Gegenständen menschliche Eigenschaften und Aktivitäten zuzurschreiben:
„Der Computer <em>will</em> nicht funktionieren“. Natürlich kann es bei einem kaputten
Rechner keine Rede vom Willen sein. Das ist bloß eine Redewendung. Aber wenn die Computer viel
leistungsfähiger werden, passiert die Zuschreibung viel bewusster, wir fangen an, von ihrer Intelligenz,
ihrem Denken oder dem Erfolg ihrer Aktivitäten zu sprechen. Diese Begriffe sind aber in der Sprache sehr
oft ambivalent und werden intuitiv verwendet. Deswegen ist es auch problematisch, sie auf andere
Gegenstände zu übertragen.</p>
<p>Um das höchstproblematische Reden vom Denken im Fall der Computer zu vermeiden, hat Alan Turing
„The Imitation Game“<sup id="cite_ref-5" class="reference"><a href="#cite_note-5">5</a></sup>
vorgeschlagen. Dieses Imitationsspiel wird von drei Personen gespielt: einem Mann (A), einer Frau (B) und
einem Fragesteller (C), dessen Geschlecht für das Spiel irrelevant ist. Der Fragesteller kennt die beiden anderen
Personen A und B nicht und befindet sich in einem anderen Raum. Das Ziel des Spiels für den Fragesteller besteht
darin, richtig zu erraten, wer von A und B ein Mann und wer eine Frau ist. Dabei kann der Fragesteller
den übrigen Spielteilnehmern Fragen stellen und Antworten auf seine Fragen bekommen. Die Teilnehmer kommunizieren
miteinander so, dass der Befragende und die Befragten einander weder sehen noch hören können, zum Beispiel sie
könnten einander Texte über das Internet versenden. A und B sind nicht verpflichtet, ehrliche Antworten auf die
Fragen zu geben. Die Aufgabe von A ist, dem Befragenden zu helfen, B soll ihn im Gegenteil in die Irre
führen.<sup id="cite_ref-6" class="reference"><a href="#cite_note-6">6</a></sup></p>
<blockquote>
<p>We now ask the question, "What will happen when a machine takes the part of A in this
game?" Will the interrogator decide wrongly as often when the game is played like this
as he does when the game is played between a man and a woman? These questions replace our
original, "Can machines think?"<sup id="cite_ref-7" class="reference"><a href="#cite_note-7">7</a></sup></p>
</blockquote>
<p>Das heißt, die Maschine soll die Rolle eines Spielers &mdash; entweder A oder B &mdash; übernehmen. Es gibt
keine Frau, keinen Mann und Fragesteller mehr, sondern einen Menschen, eine Maschine und den
Fragesteller (menschlich). Wenn es für den Fragesteller genauso schwierig ist, ohne einen direkten
Kontakt eine Maschine von einem Menschen zu unterscheiden, wie eine Frau von einem Mann, dann hat
die Maschine den Turing-Test bestanden.</p>
<p>Im Grunde, um den Erfolg des Lernens eines Computersystems zu bewerten, wird hier eine funktionale
Beschreibung verwendet. Anstatt nach der Washeit der Dinge zu fragen: Was ist Denken? Was ist Erfolg?
Können diese Begriffe auf ein Computersystem angewandt werden?, fragt man, ob und wie gut das System
eine bestimmte Funktion ausführen, einen Test bestehen kann. Der Turing-Test scheint mir auch die beste
Methode zu sein, um den Erfolg des Lernes eines Computersystems zu bewerten. Vor allem, weil so ein
funktionaler Test einen Aufschluss darüber gibt, welche Stufe in der Entwicklung der künstlichen
Intelligenz man bereits erreicht hat, und was noch verbessert werden muss, um den Lernerfolg zu
vergrößern. Er gibt auch eine Skala an, von der abgelesen werden kann, ob ein Algorithmus bessere
Ergebnisse liefert als ein anderer. Dies ermöglicht den technischen Fortschritt und die Verbesserung
der Algorithmen. Diese Skala gibt es aber nicht oder sie ist sehr verschwommen, wenn der Lernerfolg eine
ethische Perspektive haben soll.</p>
<p>Was ich hiermit nicht sagen will, ist, dass die Ethik für die Entwicklung der
künstlichen Intelligenz unwichtig ist. Es macht nur wenig Sinn sie in die Definition des Lernerfolgs
eines künstlichen Systems einzubeziehen. Um so ein System weiter zu entwickeln, braucht man eine
technische Definition des Erfolgs, die ermöglicht, die Schwächen dieses Systems aufzuzeigen, an denen
noch gearbeitet werden soll. Eine voreilige Einbeziehung einer ethischen Bewertung würde den Fortschritt
im Bereich der künstlichen Intelligenz unnötig verkomplizieren und verlangsamen. Eine ethische Bewertung
der künstlichen Intelligenz als solchen und dessen, wie sie eingesetzt wird, ist im Gegenteil nützlich
und nötig, um die Möglichkeit einer bösartigen Anwendung deren zu verringern.</p>
<p>Ich meine auch nicht, dass eine ethische Auseinandersetzung der technischen Entwicklung zeitlich
folgen soll. Es kann zu spät sein, sich mit etwas auseinanderzusetzen, was schon da ist. Vielmehr sollen
die Bereiche des Technischen und Ethischen voneinander getrennt sein. Wenn ein Informatiker oder ein
Mathematiker an einem neuen Algorithmus für maschinelles Lernen arbeitet, ist er wahrscheinlich
gar nicht daran interessiert, ein künstliches System zu erschaffen, das ihm ermöglicht, die Welt
zu beherrschen, womöglich ist er nur an seinem Fach interessiert und will sehen, wie weit man die
künstliche Intelligenz bringen kann. Natürlich soll man sich Gedanken darüber machen, was passiert,
wenn man den neuen Algorithmus oder die neue Technologie auf den Markt bringt, das darf aber nicht
der eigentlichen Forschung im Wege stehen.</p>
<h3>Dritt- und Erstperson-Perspektive</h3>
<p>Kommen wir auf die Frage „Können die Maschinen denken?“ zurück. Was ist an dieser
Frage so problematisch, sodass Alan Turing sie umzugehen suchte, außer dass der Begriff
„Denken“ schwierig zu definieren ist. Oder warum ist er schwierig zu
definieren? Das Denken für den Menschen ist ein <em>Erlebnis</em>, das heißt ich erlebe mich
selbst als ein denkendes Wesen. Ich gehe davon aus, dass auch die anderen Menschen sich als
denkende Wesen erleben, obwohl ich nicht mit Sicherheit sagen kann, wie sich das Denken eines
anderen Menschen für ihn anfühlt, was und wie er denkt. Man denke nur an die Diskussionen, ob
Tiere Freude oder Leiden empfinden können, ob sie denken können. Es ist relativ naheliegend,
dass andere Menschen denken können, aber es ist nicht klar, ob man das von den anderen Lebewesen
behaupten kann. Desto unklarer ist es, wenn man von etwas spricht, was überhaupt kein
Lebewesen ist.</p>
<p>Anstatt der Maschine einen Geist und eine Art Innerlichkeit zuzuschreiben, entwickelt sich aber
die Tendenz, den Menschen mechanisch zu verstehen. Wenn Sören Kierkegaard sagt: „Der Mensch ist
Geist“<sup id="cite_ref-8" class="reference"><a href="#cite_note-8">8</a></sup>, so heute ist der Mensch immer
öfter sein Gehirn: „In Germany, leading neuroscientists like Wolf Singer and Gerhard
Roth are omnipresent in TV and press. They speak of the brain as if they were talking about a
person.“<sup id="cite_ref-9" class="reference"><a href="#cite_note-9">9</a></sup> Kierkegaards Mensch und sein
Geist waren nicht bloß eine immaterielle Substanz, sondern vielmehr eine Synthese „aus Unendlichkeit und
Endlichkeit, aus dem Zeitlichen und dem Ewigen, aus Freiheit und Notwendigkeit,
[&hellip;]“<sup id="cite_ref-10" class="reference"><a href="#cite_note-10">10</a></sup> Ob die Beschreibung
des Menschen als Gehirn genauer zutrifft, ist fraglich. Yvonne Förster in ihrem Artikel „Effects of the
Neuro-Turn: The Neural Network as a Paradigm for Human Self-Understanding“ macht darauf
aufmerksam, dass obwohl bei der Erforschung des Gehirns nur die Drittperson-Perspektive in die Betrachtung
einbezogen wird, eine Verschiebung der Terminologie von der Philosophie zu den Neurowissenschaften
stattfindet:</p>
<blockquote>
<p>While phylosophy works with concepts, experience, reflection, and linguistic
description, neuroscience, on the other hand, uses these philosophical terms within
a third-person framework of observation, imaging techniques, and
measurements.<sup id="cite_ref-11" class="reference"><a href="#cite_note-11">11</a></sup></p>
</blockquote>
<p>Eine Reihe von Begriffen, wie der freie Wille oder das Bewusstsein, für die die Innenperspektive
unentbehrlich ist, werden aus der Drittperson-Perspektive beurteilt und beschrieben.
Doris Nauer spricht auch davon, dass bei der Erforschung geistiger Funktionen
„NaturwissenschaftlerInnen zunehmend die Interpretationsgrenzen rein naturwissenschaftlicher
Forschung überschreiten“.<sup id="cite_ref-12" class="reference"><a href="#cite_note-12">12</a></sup>
Außerdem merkt Förster an, dass die Neurowissenschaften keinen direkten Zugang auch zum Gehirn oder den
Neuronen selbst haben, vielmehr arbeiten sie mit Modellen:</p>
<blockquote>
<p>The neural gains its visibility only via technology. The process of making the neural visible is
not a simple representation of something otherwise hidden. Rather it is a production of images by
means imaging techniques. What we get to see is not the inside of our skull, not copies of our
neurons, but reconstructions modeled according to a certain set of rules of computation. The neural
net as we know it from neuroscientific imagery is not a photograph of brain parts. It is deeply
technological mediated.<sup id="cite_ref-13" class="reference"><a href="#cite_note-13">13</a></sup></p>
</blockquote>
<p>Das Selbstverständnis des Menschen und das Verständnis der Maschine und der künstlichen Intelligenz sind
voneinander abhängig. Wenn wir die Maschinen konstruieren, die selbst lernen und vielleicht denken können,
und so den Menschen nachahmen, lernen wir auch etwas über die menschlichen Denkprozesse und dem
Zusammenhang zwischen dem Bewusstsein und dem Gehirn. Andererseits um
zu entscheiden, ob die Maschinen denken oder ein geistiges Leben haben können, ist unser Menschenbild
wichtig, weil es von ihm abhängt, ob sich das, was wir unter dem Menschen verstehen, auf die Maschine
übertragen lässt.</p>
<h3>Zum Begriff der Intelligenz</h3>
<p>Eine der Fragen, die sich noch stellen, ob wir im Falle der künstlichen Intelligenz überhaupt von
der <em>Intelligenz</em> sprechen kann, wie wir von der menschlichen sprechen. Ich möchte von vornherein
sagen, dass diese Frage nicht eindeutig zu beantworten ist. Von einem Menschen zu sagen, er sei intelligent,
ist nicht dasselbe, wie zu sagen: „Zwei ist eine gerade Zahl“.</p>
<p>Erstens, je nachdem wer das Wort „intelligent“ sagt, kann man darunter unterschiedliche
Eigenschaften meinen. Für einen mag intelligent derjenige sein, der über viele Fachkentnisse in
einem bestimmten Bereich verfügt. Für einen anderen ist es der, der allgemein gebildet ist und nicht
nur in bestimmten Bereichen. Für den dritten spielen die erworbenen Kenntnisse überhaupt eine geringere
Rolle, viel wichtiger, um intelligent zu sein, sei es, schlau zu sein, schnell die Lösungen für die
auftretenden Probleme zu finden.</p>
<p>Zweitens hängt die Antwort auf die Frage, ob man so eine Eigenschaft wie „Intelligenz“
auf eine Maschine übertragen kann, sehr stark von anthropologischen Ansichten der jeweiligen Person.
Ist der Mensch selbst wahrscheinlich nichts weiter als eine Art von der Natur erschaffener Roboter?
In diesem Fall kann wohl auch eine vom Menschen konstruierte Maschine Intelligenz haben. Wenn der Mensch
dagegen ein geistiges Wesen ist, das nicht vollständig durch physikalische Gesetze determeniert ist,
dann ist es qualitativ etwas anderes als eine Maschine und man könnte argumentieren, dass deswegen bestimmte
Eigenschaften wie Intelligenz nur dem Menschen zugeschrieben werden können.</p>
<p>Der Stand der Entwicklung rechtfertigt nicht immer die Anwendung des Begriffes „Intelligenz“
im Bezug auf die Maschinen. Bereits heutige Computer sind in bestimmten Bereichen
intelligenter als die Menschen. Zum Beispiel kann jeder der heutigen Prozessoren (oder CPU,
<b>C</b>entral <b>P</b>rocessing <b>U</b>nit) einfache Berechnungen, wie Multiplizieren,
Dividieren, Addieren oder Substrahieren, vielfach schneller durchführen als ein Mensch. Und diese
Fähigkeit besitzten bereits die Computer der neunziger Jahre des vergangenen Jahrhunderts, als die künstliche
Intelligenz noch nicht so verbreitet war. Schnelles Rechnen kann auch ein Merkmal der Intelligenz sein.
Und doch spricht man von der künstlichen Intelligenz meistens in Bezug auf maschinelles Lernen. Dies zeigt,
dass wenn man von intelligenten Maschinen spricht, meint man eine bestimmte Art von der Intelligenz, und
zwar meint man die Maschinen, die das Können besitzen, nicht nur die einprogrammierten
„Kenntnisse“ anzuwenden, sondern auch neue Erkenntnisse selbstständig zu gewinnen. Das heißt
Intelligenz knüpft hier an die <em>schöpferische</em> Kraft des Menschen, an die Kraft etwas neues
zu <em>erschöpfen</em>. Natürlich ist es nicht dasselbe wie Erschaffen eines Kunstwerkes oder eines
Musikstückes, weil das, was erkannt wird, schon da ist, es nicht aus Nichts geschaffen wird. Und doch
ist auch das Gewinnen der Erkenntnisse aus der Erfahrung, die vorher nicht waren, ist das Gewinnen von
etwas <em>neuem</em>, also ein schöpferischer Vorgang. Und dieser Übergang zwischen einer die Befehle
ausführenden und einer lernenden Maschine ist wohl die Grenze, ab der die Maschinen
<em>intelligent</em> werden.</p>
<p>Wie weit die künstliche Intelligenz reicht oder reichen kann, lässt sich noch nicht sagen. Wir haben
noch keine Roboter, die malen, Romane oder Lieder schreiben oder physikalische Gesetze entdecken.
Es geht bei maschinellem Lernen um das Erkennen bestimmter Muster in der Eingabedaten. Falls so ein Muster
tatsäschlich erkannt wurde, dann können anhand dessen auch neue Daten ausgewertet werden. Dem lernenden System
geht es nicht um die Forschung oder die Suche nach der Wahrheit. Und hier ist es nicht mal wichtig,
was Wahrheit ist, und ob es sie gibt. Wenn ein Schriftsteller schreibt, sehnt er oft aus dem tiefsten
seines Herzens, seinen Lesern etwas mitzuteilen, seine Wahrheit zu verkünden. Auch ein Forscher kann
von diesem Gefühl bewegt werden, selbst wenn seine Theorie sich später als falsch erweist, hat er versucht,
etwas Wahres zu entdecken. Ein lernendes System hat überhaupt keinen Sinn für die Wahrheit. Es wurde
programmiert, um Muster in den Daten zu erkennen und das tut es. Wenn ich weiß, wie ein System aufgebaut
ist, kann ich es von vornherein mit manipulierten Daten füttern, sodass es etwas falsch lernt, und es
wird sich nicht betrogen fühlen. Wobei ich zugeben muss, dass es auch einem Menschen passieren kann,
dass er sich auf falsche, falsch ausgewählt Daten, stützt, und deswegen zu inkorrekten Ergebnissen gelangt.</p>
<p>Die Mustererkennung ist wichtig auch für das menschliche Überleben. Allerdings vermag der Mensch auch
abstrakt zu denken. Es gibt zum Beispiel in der Natur keine Zahlen, es gibt nur abzählbare Gegenstände.
Man muss sich von den einzelnen Gegenständen beziehungsweise ihrer endlichen Anzahl abstrahieren können,
um auf die unendliche Menge von natürlichen Zahlen kommen. Diese Fähigkeit zum abstrakten Denken ist etwas,
was den Menschen gegenüber den Maschinen immer noch auszeichnet.</p>
<h3>Grenzen der Anwendung von maschinellem Lernen</h3>
<p>Zwar ist die künstliche Intelligenz zum selbstständigen Lernen fähig, ist kein selbstständiges
Lebewesen wie der Mensch, sondern nur ein Instrument unter vielen anderen.</p>
<p>Nehmen wir an, wir wollen quadratische Gleichungen in der Normalform lösen:</p>
<div class="equation">
<math>
<apply>
<eq/>
<apply>
<plus/>
<apply>
<power/>
<ci>x</ci>
<cn>2</cn>
</apply>
<apply>
<times/>
<cn>p</cn>
<ci>x</ci>
</apply>
<cn>q</cn>
</apply>
<cn>0</cn>
</apply>
</math>
</div>
<p>Dafür beabsichtigen wir ein Programm zu schreiben, das die 2 Parameter, <i>p</i> und <i>q</i>, als
Eingabewerte annimmt und die Gleichung nach <i>x</i> auflöst. Man kann diese Aufgabe durchaus mithilfe der
künstlichen Intelligenz lösen. Wir entwerfen ein System, dem wir einige Tausende solcher Gleichungen
selbst und deren Lösungen übergeben, damit es aus diesen Daten lernen kann.
Dann testen wir, ob das System nun selbst richtige Antworten produzieren kann. Wenn es nicht der Fall
sein soll, bereiten wir weitere Angaben und Lösungen vor. Irgendwann haben wir unser künstliches System
ausreichend trainiert, sodass es jetzt selbst solche Gleichungen lösen kann.</p>
<p>Eigentlich wissen wir aber, wie man eine quadratische Gleichung löst. Genauso gut könnten wir den folgenden
Algorithmus in einem Programm implementieren:</p>
<ol>
<li>Berechne die Diskriminante <i>D</i>:
<div class="equation">
<math>
<apply>
<eq/>
<cn>D</cn>
<apply>
<minus/>
<apply>
<power/>
<apply>
<divide/>
<ci>p</ci>
<cn>4</cn>
</apply>
<cn>2</cn>
</apply>
<cn>q</cn>
</apply>
</apply>
</math>
</div>
</li>
<li>Wenn <i>D</i> größer gleich 0 ist, gibt es zwei reelle Lösungen:
<div class="equation">
<math>
<apply>
<eq/>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<apply>
<plus/>
<apply>
<divide/>
<ci>p</ci>
<cn>2</cn>
</apply>
<apply>
<root/>
<cn>D</cn>
</apply>
</apply>
</apply>
</math>
</div>
<div class="equation">
<math>
<apply>
<eq/>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<apply>
<minus/>
<apply>
<divide/>
<ci>p</ci>
<cn>2</cn>
</apply>
<apply>
<root/>
<cn>D</cn>
</apply>
</apply>
</apply>
</math>
</div>
</li>
</ol>
<p>Der Aufwand, dieses Programm, zu schreiben ist viel geringer als die Variante mit der künstlichen
Intelligenz. Was noch viel wichtiger für ein Programm, das mathematische Berechnungen durchführt, ist,
ist, dass wir wissen, dass, wenn der Algorithmus korrekt implementiert ist, er richtige Ergebnisse
liefert. Wenn das lernende System komplex genug ist,
können wir nicht mehr nachvollziehen, wie eine bestimmte Berechnung durchgeführt wird, das heißt, wir
können nicht überprüfen, ob der Algorithmus für alle Paare <i>p</i> und <i>q</i> das richtige Ergebnis liefert.
Für die Anwendungsfelder des maschinellen Lernens ist eine solche Genauigkeit auch nicht unbedingt
erforderlich. Wenn ein soziales Netzwerk setzt künstliche Intelligenz ein, um gezielte Werbung
anzuzeigen, dann ist es durchaus vorteilhaft, wenn die Werbung den Nutzer anspricht, aber es ist immer
noch zulässig, wenn die Wahl der Werbung nicht optimal ist. Es genügt, wenn die Werbung
<em>interessant genug</em> für den Nutzer ist, oder dass ein gewisser Profit durch sie erreicht wird.</p>
<p>Künstliche Intelligenz ist keine universelle Lösung für alle Probleme. Sie ist sehr nützlich für
die Auswertung von großen Mengen an Daten und für die Suche nach Mustern in diesen, aber ist noch
nicht fähig abstrakte, e.g. mathematische Probleme zu lösen.</p>
<h3>Fazit</h3>
<p>Über viele Fragen lässt es heute nur spekulieren. Können die Maschinen alle Tätigkeiten ausüben, die
die Menschen ausüben? Sind sie eine neue Evolutionsstufe, sodass sie die Menschen eines Tages
verdrängen und überflüssig machen? Oder werden die Maschinen und Menschen weiterhin friedlich
coexistieren? Einige Autoren versuchen bereits diese Fragen zu beantworten. Ich wage heute noch nicht,
auf sie eine Antwort zu geben. Schließlich ist die Entwicklung der Wissenschaft und der Technik
auch von einer Reihe von sozialen, politischen und wirtschaflichen Faktoren mitbestimmt.</p>
<p>Künstliche Intelligenz und Maschinelles Lernen ist ein junges Konzept, dem viel Aufmerksamkeit von
verschiedenen Siten geschenkt wird. Die Technik und Informatik sind daran interessiert, weil es ermöglicht
neue, selbst „denkende“ Programme zu schreiben; Naturwissenschaften hoffen durch künstliche
auch die menschliche Intelligenz besser zu verstehen; man sieht auch Potenzial, den Menschen noch mehr
vom Last der Arbeit zu befreien, aber man warnt auch vor den Gefahren der Verselbständigung der
Computertechnik oder deren Missbrauch. Naturwissenschaftliche Forschung hatte schon fatale Folgen, sie
ermöglichte zum Beispiel eines Tages die Erschaffung der Atomwaffen, was vielen unschuldigen Menschen
ihr Leben kostete. Doch sie hat auch einen soliden Beitrag zur modernen Medizin und Technik geleistet,
auf die wir uns jeden Tag verlassen. Um die künstliche Intelligenz scheint es ähnlich zu stehen: Es ist
ein kontroverses Thema.</p>
</section>
<footer>
<ol class="references">
<li id="cite_note-1">
<a class="backlink" href="#cite_ref-1">^</a>
<span>
Ray Kurzweil. <i>Menschheit 2.0. Die Singularität naht</i>.
Berlin, 2014, S. 7f.
</span>
</li>
<li id="cite_note-2">
<a class="backlink" href="#cite_ref-2">^</a>
<span>
David Danks. <i>Learning</i>.
In: <i>The Cambridge Handbook of Artificial Intelligence</i>.
Hrsg. von Keith Frankish und William M. Ramsey.
Cambridge, 2014, S. 154.
</span>
</li>
<li id="cite_note-3">
<a class="backlink" href="#cite_ref-3">^</a>
<span>
Ivan Nunes da Silva u. a. <i>Artificial Neural Networks. A Practical Course</i>.
Switzerland, 2017, S. 27.
</span>
</li>
<li id="cite_note-4">
<a class="backlink" href="#cite_ref-4">^</a>
<span>
Danks, <i>Learning</i>, S. 154.
</span>
</li>
<li id="cite_note-5">
<a class="backlink" href="#cite_ref-5">^</a>
<span>
Alan Mathison Turing. <i>Computing Machinery and Intelligence</i>.
In: <i>Mind</i> 59(236) (Okt. 1950), S. 433f.
</span>
</li>
<li id="cite_note-6">
<a class="backlink" href="#cite_ref-6">^</a>
<span>Ebd.</span>
</li>
<li id="cite_note-7">
<a class="backlink" href="#cite_ref-7">^</a>
<span>Ebd., S. 434.</span>
</li>
<li id="cite_note-8">
<a class="backlink" href="#cite_ref-8">^</a>
<span>
Søren Kierkegaard. <i>Die Krankheit zum Tode. Eine christlich-psychologische Darlegung zur Erbauung
und Erweckung</i>. Übers. von Gisela Perlet. Copenhagen, 2015, S. 11.
</span>
</li>
<li id="cite_note-9">
<a class="backlink" href="#cite_ref-9">^</a>
<span>
Yvonne Förster. <i>Effects of the Neuro-Turn: The Neural Network as a Paradigm for Human Self-Understanding</i>.
In: <i>The Human Sciences After the Decade of the Brain</i>. Hrsg. von Jon Leefmann und Elisabeth Hildt.
Cambridge, 2017, S. 164.
</span>
</li>
<li id="cite_note-10">
<a class="backlink" href="#cite_ref-10">^</a>
<span>Kierkegaard, <i>Die Krankheit zum Tode.</i>, S. 11.</span>
</li>
<li id="cite_note-11">
<a class="backlink" href="#cite_ref-11">^</a>
<span>
Förster, <i>Effects of the Neuro-Turn: The Neural Network as a Paradigm for Human Self-Understanding</i>,
S. 163.
</span>
</li>
<li id="cite_note-12">
<a class="backlink" href="#cite_ref-12">^</a>
<span>
Doris Nauer. <i>Seelsorge. Sorge um die Seele</i>. 3. Aufl. Stuttgart, 2014, S. 35.
</span>
</li>
<li id="cite_note-13">
<a class="backlink" href="#cite_ref-13">^</a>
<span>
Förster, <i>Effects of the Neuro-Turn: The Neural Network as a Paradigm for Human Self-Understanding</i>,
S. 172.
</span>
</li>
</ol>
</footer>

View File

@@ -0,0 +1,717 @@
---
layout: post
date: 2017-12-25 00:00:00
tags: Aufsatz
title: Künstliche Intelligenz. Eine Begriffsklärung
teaser:
<p>Es ist relativ neu, dass man angefangen hat, technischen Artefakten menschliche Eigenschaften zuzuschreiben.
So spricht man heute von „intelligenten“ Maschinen. Es gibt intelligente Menschen, die gebildet,
begabt sind. Die Maschinen, Computer werden programmiert, um einen bestimmten Zweck zu erfüllen, sie arbeiten
nach einem vordefinierten Algorithmus. Bestenfalls kann so ein Algorithmus aktualisiert werden.
Wäre es jedoch vielleicht möglich, ein Programm zu schreiben, das das menschliche Lernvermögen nachbildet
und lernen kann? Es ist tatsächlich möglich und in diesem Fall spricht man von der <em>künstlichen Intelligenz</em>
(<em>Artificial Intelligence</em>) und dem <em>maschinellen Lernen</em> (<em>Machine Learning</em>), von der
Fähigkeit einer Maschine, selbst zu lernen, also den Algorithmus, nach dem sie arbeitet, weiter zu entwickeln
und zu verändern. Das, was eine Maschine auf diese Weise gelernt hat, ist oft so komplex, dass man nicht mehr
sagen kann, wie genau sie das gelernt hat und wie sie zu Ergebnissen kommt, die sie liefert. Ob es ausreichend
ist, von der Intelligenz zu sprechen, im selben Sinne, wie man von der menschlichen Intelligenz spricht, ist
eine schwierige Frage. Selbst die menschliche Intelligenz ist kein eindeutig definierter, ein vager Begriff,
der viele subjektive Merkmale in sich trägt.</p>
---
\section{Einleitung}
Die Technik gibt es seit sehr langem. Der Mensch war schon immer abhängig von seiner Technik und
verdankte ihr seinen kulturellen Aufstieg. Sie erleichterte das Überleben in der Natur, ermöglichte
den Bau der Städte und die Entwicklung der Zivilisationen, half bei der Kriegsführung und der Erforschung
und dem Bewohnen neuer Territorien. Mit der Zeit wurde die Technik immer komplexer: Angefangen mit einfachen
Werkzeugen hat man gelernt, komplexere Maschinen zu bauen. Dies hatte wiederum eine enorme Wirkung auf die
Kultur. Viele schwere Arbeiten konnten auf die Maschinen verlagert werden; die Bildung hat einen neuen
Aufschwung bekommen; Wissenschaften hatten neue Mittel, um Experimente durchzuführen und immer weiter
fortzusrchreiten. Schon sehr lange ist der Mensch von seiner Technik umgeben; Es ist nicht erst gestern
passiert, dass er sich von ihr abhängig gemacht hat und seine Geschichte mit der der
Technik verbunden hat. Was sich aber im Laufe der Zeit gewandelt hat, ist die Art der angesetzten Technik.
Es ist relativ neu, dass man angefangen hat, technischen Artefakten menschliche Eigenschaften zuzuschreiben.
So spricht man heute von „intelligenten“ Maschinen. Es gibt intelligente Menschen, die gebildet,
begabt sind. Die Maschinen, Computer werden programmiert, um einen bestimmten Zweck zu erfüllen, sie arbeiten
nach einem vordefinierten Algorithmus. Bestenfalls kann so ein Algorithmus aktualisiert werden.
Wäre es jedoch vielleicht möglich, ein Programm zu schreiben, das das menschliche Lernvermögen nachbildet
und lernen kann? Es ist tatsächlich möglich und in diesem Fall spricht man von der \textit{künstlichen Intelligenz}
(\textit{Artificial Intelligence}) und dem \textit{maschinellen Lernen} (\textit{Machine Learning}), von der
Fähigkeit einer Maschine, selbst zu lernen, also den Algorithmus, nach dem sie arbeitet, weiter zu entwickeln
und zu verändern. Das, was eine Maschine auf diese Weise gelernt hat, ist oft so komplex, dass man nicht mehr
sagen kann, wie genau sie das gelernt hat und wie sie zu Ergebnissen kommt, die sie liefert. Ob es ausreichend
ist, von der Intelligenz zu sprechen, im selben Sinne, wie man von der menschlichen Intelligenz spricht, ist
eine schwierige Frage. Selbst die menschliche Intelligenz ist kein eindeutig definierter, ein vager Begriff,
der viele subjektive Merkmale in sich trägt.
Dass wir die Programme entwickeln können, die sich selbst „weiterschreiben“, weiterentwickeln
können, birgt viele Möglichkeiten und viele Gefahren in sich. Einerseits können die Maschinen dem Menschen
nicht nur schwere körperliche Arbeit abnehmen, sondern auch einige geistige Tätigkeiten. Zum Beispiel das
Übersetzen von Texten in andere Sprachen kann teilweise von Computern übernommen werden, die ihre
„Sprachkenntnisse“ selbst immer mehr verbessern können. Andererseits, wenn man nicht mehr
versteht, wie genau die von ihm konstruierte Maschine handelt, fühlt man sich bedroht. Es werden auch Stimmen
laut, dass die nächste Stufe der Evolution nicht eine biologische, sondern eine technische Evolution sei und,
dass der Mensch sehr bald vom Werk seiner Hände überholt werde.\autocite[7ff]{kurzweil:menschheit}
Das Ziel dieser Arbeit ist, auf die künstliche Intelligenz und neuronale Netze, nicht nur aus technischer,
sondern auch philosophischer Sicht zu schauen. Wenn wir von der künstlichen Intelligenz sprechen,
verwenden wir viele Begriffe wie Lernen, Lernerfolg, Intelligenz, deren Bedeutung aber nicht immer
klar ist. Und ich finde, dass das, wie wir über die Maschinen sprechen,
viel darüber sagt, wie sich unser eigenes Menschenbild im technischen Zeitalter verändert oder verändert hat.
\section{Maschinelles Lernen}
Maschinelles Lernen ist ein Zweig der künstlichen Intelligenz, in dem es darum geht, einem künstlichen
System das Gewinnen von Wissen zu ermöglichen. Ein auf diese Weise lernendes System kann eine gestellte
Aufgabe nicht nach einem vordefinierten Algorithmus lösen, sondern ist fähig, selbst zu lernen, wie die
Aufgabe zu lösen ist.
Maschinelles Lernen ist sehr vielfältig und hat verschiedene Anwendungen. Es kann grob in zwei große Kategorien
unterteilt werden: überwachtes und unüberwachtes Lernen.
\subsection{Überwachtes Lernen (Supervised Learning)}
Beim überwachten Lernen stehen dem Lernenden eine Menge von Eingaben und den dazugehörigen Ausgaben zur Verfügung.
Das heißt es gibt eine Reihe von Ausgangsituationen und eine Reihe möglicher Antworten beziehungsweise Reaktionen
auf jene Situationen, wobei zwischen den ersteren und den letzteren eine Abhängigkeit vorhanden ist.
Das Ziel des Algorithmus ist jetzt diese Abhängigkeit zu entdecken, sie zu „erlernen“.
\begin{quote}
\textit{Supervised learning} algorithms assume that some variable X is
designated as the target for prediction, explanation, or inference, and that
the values of X in the dataset constitute the „ground truth“ values for
learning.\autocite[154]{danks:ai}
\end{quote}
Zum überwachten Lernen gehört auch das sogenannte \textbf{bestärkende Lernen (Reinforcement Learning)}.
Das ist das Lernen durch „Versuch und Irrtum“. Dem lernenden System steht hier keine Menge
möglicher Ausgaben, sodass der Algorithmus aus vorhandenen Daten lernen könnte, dafür kann es mit seiner
Umgebung interagieren und von dieser „belohnt“ oder „bestraft“ werden. Also der
Algorithmus wird aus der Umgebung bewertet und anhand dieser Bewertung kann er lernen, wie er anhand
einer Eingabe zu der richtigen Ausgabe gelangt.
„The learning algorithms used on reinforcement learning adjusts
the internal neural parameters relying on any qualitative or quantitative information
acquired through the interaction with the system (environment) being mapped, [\dots]“\autocite[27]{silva:ai}
Maschinelles und bestärkendes Lernen wird schon seit längerer Zeit bei Spam-Erkennung verwendet. Als Spam
werden unerwünschte E-Mails, zum Beispiel Werbung, die man nicht bestellt hat, genannt. Es gibt auch einen
Gegenbegriff zum Spam: Ham, also normale E-Mails, die man in seinem E-Mail-Postfach erwartet.
Wie ein Programm lernt, Spam von Ham zu unterscheiden, kann man damit vergleichen, wie es ein Mensch lernt.
Sie bekommen unerwünschte Werbung per Post. Es ist ein Briefumschlag mit einer unpersönlichen Anrede und ein
kleines Heft. Sie blättern es durch und sehen, dass sie daran nicht interessiert sind und schmeißen es weg.
Wenn Sie ein ähnliches Heft nächstes Mal bekommen, blättern Sie vielleicht nochmal durch, um sicher zu sein,
dass es nichts Wichtiges bzw\@. etwas, was Sie abonniert haben, ist. Wenn Sie einige Wochen später nochmal so ein
Heft bekommen, reicht nur ein Blick. Vielleicht haben Sie den Namen desselben Unternehmens oder bekannte
Produktabbildungen oder einen ähnlichen Werbetext gesehen --- Sie schmeißen es, ohne genauer zu schauen, weg.
Sie haben gelernt, dass derartige Hefte mit Werbung keine für Sie hilfreiche Information enthalten.
In vielen Mail-Programmen gibt es inzwischen die Funktion „Als Spam markieren“. Wenn eine E-Mail
als Spam markiert wird, analysiert der Spam-Filter den Inhalt der E-Mail und merkt, wie viele Male jedes Wort
in der Nachricht vorkommt. Dieselbe Analyse macht der Filter für die anderen Nachrichten, die nicht als Spam
markiert wurden. Langsam sammelt sich eine Datenbank mit der Anzahl der Vorkommnisse verschiedener Wörter in
Spam- und Ham-Nachrichten. Anhand dieser Daten kann dann der Filter erkennen, dass bestimmte Wörter nur in
Spam-Mails vorkommen, aber nicht in Ham, und kann ohne die Einmischung des Menschen entscheiden, ob eine E-Mail
unerwünscht ist oder nicht. So ein Verfahren ist natürlich nicht fehlerfrei. Es kommt sowohl dazu, dass Spam durch
so einen Filter unerkannt durchdringen kann, als auch dazu, dass Ham im Spam-Ordner landet. Auf diversen Webseiten
kann man lesen: „Wenn Sie keine E-Mail innerhalb von \textit{X} Stunden erhalten haben, überprüfen Sie Ihren
Spam-Ordner“. Wenn Ham als Spam eingestuft wird, spricht man vom \textit{False-Positive}. Es gibt meistens
wiederum die Funktion, um die Spam-Markierung von der E-Mail zu entfernen. Dadurch kann der Filter neu lernen
und seine Datenbank aktualisieren beziehungsweise anpassen.
Wir haben gesehen, dass eine der Möglichkeiten, Spam zu erkennen, darauf basiert, den Spam-Filter mit der
Umgebung, also mit dem Benutzer, kommunizieren zu lassen. Der Benutzer hat eine Möglichkeit dem Filter mitzuteilen,
ob eine E-Mail Spam oder Ham ist, woraus der Filter lernen kann. Je länger so ein Filter eingesetzt wird und je
mehr er auf diese Weise trainiert wird, desto geringer wird die Wahrscheinlichkeit des False-Positives.
\subsection{Unüberwachtes Lernen (Unsupervised Learning)}
\begin{quote}
\textit{Unsupervised learning} algorithms do not single out any particular
variables as a target or focus, and so aim to provide a general
characterization of the full dataset.\autocite[154]{danks:ai}
\end{quote}
Beim unüberwachten Lernen wird keine bestimmte Ausgabe, kein bestimmter Wert bei der Ausgabe erstrebt, wie es
bei dem überwachten Lernen der Fall ist. Vielmehr geht es darum, eine innere Struktur in den Daten zu entdecken.
Ein Standardbeispiel für unüberwachtes Lernen ist ein soziales Netzwerk. In großen sozialen Netzwerken kann
man sein Interesse oder Desinteresse dadurch zeigen, dass man bestimmte Beitrage positiv markiert
beziehungsweise blockiert. Ein gutes soziales Netzwerk würde, um seinen Nutzern genüge zu tun, die einem
bestimmten Benutzer angezeigten Beiträge zensieren, und ihm nur diejenigen zeigen, die er wahrscheinlich
mag und nicht diejenigen, die er blockieren würde. Aber das Netzwerk weiß nicht im Voraus, dass es
Beiträge zu verschiedenen Themen gibt: Kunst, Politik, Sport und so weiter. Schließlich können immer neue
Themen auftauchen. Das Netzwerk lernt selbst die Beiträge und Benutzer zu klassifizieren. Das Lernen geht
über die Erforschung der Vorlieben einer bestimmten Person hinaus. Nehmen wir an in Profilen zweier Personen
unter „Interessen“ steht, dass sie gern Tennis spielen und beide lesen gerne Nachrichten eines
Sportvereins, der eine eigene Seite im sozialen Netzwerk hat. Wenn eine dritte Person jetzt angibt, dass sie
gern Tennis spielt, hat das soziale Netzwerk den Grund anzunehmen, dass dieser Person auch die Nachrichten
des Sportvereins gefallen werden. Das heißt das Netzwerk lernt aufgrund komplexer Zusammenhänge, dass es bestimmte
Gruppen, Themen- und Interessenbereiche gibt. Es gibt hier keine richtige Antwort, man überwacht nicht alle
registrierten Benutzer und korrigiert das Netzwerk nicht: Nein, dieser Mensch gehört dieser Gruppe nicht. Und
wenn ich einen Beitrag blockiere und markierte, bedeutet es nicht unbedingt, dass ich eine Bewertung abgebe, wie
gut das Netzwerk gelernt hat. Es kann schließlich sein, dass ich heute keine Lust auf meinen Sportverein habe,
sonst aber gerne lese, was er schreibt.
Die Unterteilung in Gruppen, Klassifizierung ist in der Wirklichkeit sehr komplex und unterzieht sich oft der
Möglichkeit, sich auf irgendeine Weise kontrollieren oder bewerten zu lassen. Unüberwachtes Lernen kann hier
Abhilfe schaffen.
\section{Neuronale Netze}
In diesem Abschnitt handelt es sich um eine mögliche Realisierung des maschinellen Lernens und zwar anhand
der neuronalen Netze.
\subsection{Biologisches Vorbild}
Ein „neuronales Netz“, wie der Name raten lässt, ist ein Netz das aus
Neuronen beziehungsweise Nervenzellen besteht. Das Neuron ist kein technischer Begriff, er stammt aus
der Biologie: „[\dots] die Nervenzelle --- das Neuron --- [ist] der Grundbaustein und die elementare
Signaleinheit des Gehirns [\dots]“\autocite[75]{kandel:gedaechtnis} Neuronale Netze haben nicht nur
den Begriff des Neurons aus der Gehirnforschung übernommen, sondern auch einige weitere, und überhaupt
haben sie menschliches Gehirn zu ihrem Vorbild.
Die Nervenzelle besteht aus drei Komponenten: einem Zellkörper mit zwei Arten von Fortsätzen,
Axone und Dendriten.\autocite[Vgl.][79]{kandel:gedaechtnis} Diese Fortsätze der Nervenzelle dienen
der Signal- beziehungsweise der Informationsübertragung:
\begin{quote}
Mit den Dendriten empfängt das Neuron Signale von anderen Nervenzellen, und mit dem Axon sendet es
Informationen an andere Zellen\@. [\dots] Die Axonendigungen eines Neurons kommunizieren mit den
Dendritten eines anderen Neurons nur an speziellen Stellen, die von Sherrington später Synapsen
genannt wurden (von griechisch \textit{s\'{y}napsis} --- „Verbindung“).\autocite[81]{kandel:gedaechtnis}
\end{quote}
Synapsen sind ein weiterer Begriff, der für maschinelles Lernen wichtig ist. Sie verbinden
die Neuronen miteinander und kodieren die bisher gelernten Informationen. In künstlichen sowie in
biologischen neuronalen Netzen sind nicht alle Neuronen miteinander verbunden. Im Falle der biologischen
neuronalen Netze sind „Nervenzellen innerhalb bestimmter Bahnen verknüpft [\dots], die
er [Santiago Ram\'{o}n y Cajal] neuronale Schaltkreise nannte. Signale bewegen sich darin in
vorhersagbaren Mustern.“\autocite[81]{kandel:gedaechtnis} Auch im Gehirn sind die Synapsen für
die Informationsspeicherung und Lernerfahrung verantwortlich, da das Lernen die synaptische Stärke und
dadurch die Kommunikation zwischen Neuronen verändern kann.\autocite[Vgl.][220]{kandel:gedaechtnis}
\subsection{Einschichtiges feedforward-Netz}
In diesem Abschnitt soll die Funktionsweise eines neuronalen Netzes an einem Beispiel erklärt werden.
Nehmen wir an, wir wollen den Zusammenhang zwischen der Anzahl der Stunden, die man mit dem
Lernen und dem Schlafen am Tag vor einer Klausur verbracht hat, und dem Ergebnis der Klausur,
gemessen in Prozent, herausfinden.
Zu unseren Eingabedaten zählen:
\begin{enumerate}
\item Stunden geschlafen.
\item Stunden gelernt.
\end{enumerate}
Basierend auf diesen Daten wollen wir vorhersagen, wie das Ergebnis der Klausur ausfällt. Da wir am Anfang
nicht blind raten wollen, nehmen wir auch an, dass wir eine Testperson zur Verfügung haben, die uns für die
Untersuchung notwendige Parameter und das Endresultat ihrer Klausur mitteilt.
\begin{center}
\begin{tabular}{c c}
(gelernt; geschlafen) & Ergebnis \\
\toprule
(3 Std; 5 Std) & 70\% \\
\bottomrule
\end{tabular}
\end{center}
Diese Daten wollen wir verwenden, um unser neuronales Netz zu „trainieren“, d\@.h\@. es
muss anhand dieser Daten Vorhersagen über einen wahrscheinlichen Verlauf künftiger Klausuren machen können.
Bei unseren Berechnungen wollen wir nicht mit verschiedenen Maßeinheiten arbeiten. Zum Beispiel in unseren
Daten haben wir die Eingabe in \textit{Stunden} und die Ausgabe in \textit{Prozent}, es ist allerdings nicht
möglich Stunden in Prozente zu übersetzen oder umgekehrt. Unser Netz ist aber auch an Maßeinheiten oder an
der Art unserer Daten nicht interessiert, es muss schließlich mögliche Zusammenhänge zwischen den Eingabe-
und Ausgabewerten finden, unabhängig davon, ob es nun Stunden, Prozente, Kilogramme oder Meter sind.
Außerdem soll die Ausgabe $x$ die folgende Bedingung erfüllen soll:
\begin{gather}
\{x \in \mathbb{N} \mid 0 \leq x \leq 100 \}
\end{gather}
Um bessere Ergebnisse zu bekommen, werden wir hauptsächlich mit reellen Zahlen von 0 bis 1 rechnen.
Um das zu erreichen werden die Stunden und die Prozentzahl durch 100 geteilt. Nach diesen Umwandlungen
erhalten wir die folgende Tabelle:
\begin{center}
\caption{table}{\textbf{Normalisiert}}
\begin{tabular}{c c}
(gelernt; geschlafen) & erwartetes Ergebnis \\
\toprule
(0{,}03; 0{,}05) & 0,7 \\
\bottomrule
\end{tabular}
\end{center}
\subsection{Gewichtung}
Unser neuronales Netz wird insgesamt aus drei Schichten bestehen:
\begin{figure}[H]
\centering
\includegraphics{/assets/images/ki-begriffsklaerung/image1.png}
\caption{Einfaches neuronales Netz}\label{fig:empty_network}
\end{figure}
Jede dieser Schichten hat wiederum eins oder mehrere \textit{Neuronen}. Jedes dieser Neuronen kann
Daten speichern (in unserem Fall --- eine Zahl). Die Neuronen sind untereinander mit \textit{Synapsen} verbunden.
Eine Synapse kann wiederum Informationen speichern, i\@.e\@. sie werden auch mit einer Zahl versehen.
Die erste Schicht (Abbildung~\ref{fig:empty_network}, links) ist die Eingabeschicht, sie enthält die
Eingabedaten. Als Eingabe haben wir zwei Werte pro Testlauf: die Anzahl der Stunden, die die Testperson gelernt
und geschlafen hat. Diese zwei Werte sind unseren Eingaben, weil es die Daten sind, auf deren Basis wir eine
Ausgabe erwarten, eine Vorhersage machen wollen. Die Ausgabeschicht ist die letzte Schicht
(Abbildung~\ref{fig:empty_network}, rechts), sie hat nur ein Neuron, das Ergebnis der Klausur, das wir erwarten.
Schließlich in der Mitte ist die verdeckte Schicht. Sie ist verdeckt, weil sie für den Endbenutzer
nicht sichtbar ist, der Endbenutzer gibt schließlich eine Eingabe und bekommt am Ende eine Ausgabe, dazwischen
werden, basierend auf dem, was das neuronale Netz vorher gelernt hat, nur eine Reihe von Berechnungen
durchgeführt.\autocite[Vgl.][22]{silva:ai}
Nun hat unser Netz noch nichts gelernt, wir wollen das erstmal nur trainieren. Für den ersten Lauf müssen
wir deswegen eine Reihe von Parametern \textit{zufällig} wählen.
Erstens brauchen wir die sogenannten \textit{Gewichte}. Gewichte sind Werte, die den Synapsen zugeordnet werden.
Sie bestimmen, welchen Einfluss ein Eingabewert auf das Endergebnis hat. Die Gewichtung repräsentiert,
was das Netz bisher gelernt hat.
In unserem Fall haben wir insgesamt 9 Synapsen, sodass jedes Neuron der Eingabeschicht mit allen Neuronen der
verdeckten Schicht, und jedes Neuron der verdeckte Schicht mit dem Neuron der Ausgabeschicht verbunden werden
kann. Ich versehe diese Synapsen mit den folgenden Werten (von oben nach unten und von links nach rechts):
0.8, 0.4, 0.3, 0.2, 0.9, 0.5, 0.3, 0.5, 0.9. Es gibt erstmal keinen Grund, diese Werte und nicht andere
auszuwählen. Sie sind zufällig gefällt und die einzige Bedingung, die sie erfüllen müssen, ist, dass jeder
dieser Werte im Intervall $\left[ 0, 1 \right]$ liegen soll.
Schließlich müssen wir die Neuronen der Eingabeschicht mit unseren Ausgangsdaten füllen. Unsere Ausgangssituation
graphisch dargestellt ist dann die folgende:
\begin{figure}[H]
\centering
\includegraphics{/assets/images/ki-begriffsklaerung/image2.png}
\caption{Einfaches neuronales Netz}\label{fig:start_network}
\end{figure}
\subsection{Vorwärtspropagation}
Im nächsten Schritt wird die verdeckte Schicht gefüllt. Da wir zwei Neuronen in der Eingabeschicht haben und
jedes davon ist den Neuronen der verdeckten Schicht verbunden ist, führen jeweils zwei Synapsen von der
Eingabeschicht zu einem der Neuronen der verdeckten Schicht. Wir multiplizieren den Wert des Neurones der
Eingabeschicht mit den Gewichten der daraus ausgehenden Synapsen, addieren die Ergebnisse zusammen und schreiben
das Endergebnis in das entsprechende Neuron der mittleren Schicht. Die Werte jedes der Neuronen der
verdeckten Schicht werden also wie folgt berechnet:
\begin{equation}
\begin{split}
0{,}03 \cdot 0{,}8 + 0{,}05 \cdot 0{,}2 = 0{,}034\\
0{,}03 \cdot 0{,}4 + 0{,}05 \cdot 0{,}9 = 0{,}057\\
0{,}03 \cdot 0{,}3 + 0{,}05 \cdot 0{,}5 = 0{,}034
\end{split}\tag{Verdeckte Schicht}
\end{equation}
\begin{figure}[H]
\centering
\includegraphics{/assets/images/ki-begriffsklaerung/image3.png}
\caption{Einfaches neuronales Netz}\label{fig:before_activation}
\end{figure}
\subsection{Aktivierungsfunktion}
Da die Eingabe (die Stunden) nicht im Intervall $\left[ 0, 1 \right]$ liegt, verwenden wir eine
\textit{logistische Aktivierungsfunktion}, deren Wertebereich $f(x) \in \mathbb{R} \mid 0 \leq x \leq 1$ ist:
„The output result produced by the logistic function will always assume real values between zero
and one.“\autocite[15]{silva:ai}
\begin{equation}
f(x) = \frac{1}{1 + e^{-x}} \tag{Aktivierungsfunktion}
\end{equation}
So bekommen wir nach den anschließenden Berechnungen mit einer hohen Wahrscheinlichkeit eine Zahl zwischen 0 und 1,
die anschließlich mit 100 multipliziert werden kann, um so auf die Prozente zu kommen.
Wir wenden zunächst die Aktivierungsfunktion auf jeden der vorher berechneten Werte an und schreiben
das Ergebnis ebenfalls in die verdeckte Schicht.
\begin{equation}
\begin{split}
f(0{,}034) \approx 0{,}509\\
f(0{,}057) \approx 0{,}514\\
f(0{,}034) \approx 0{,}509
\end{split}
\end{equation}
\begin{figure}[H]
\centering
\includegraphics{/assets/images/ki-begriffsklaerung/image4.png}
\caption{Einfaches neuronales Netz}\label{fig:activation}
\end{figure}
Es bleibt jetzt nur noch dieselbe Berechnung durchzuführen wie mit der Eingabeschicht: Jeder der Werte
der verdeckten Schicht wird mit dem entsprechenden Gewicht multipliziert und alle Ergebnisse werden
anschließend summiert.
\begin{equation}
\begin{split}
0{,}509 \cdot 0{,}3 = 0{,}1527\\
0{,}514 \cdot 0{,}5 = 0{,}257\\
0{,}509 \cdot 0{,}9 = 0{,}4581
\end{split}
\end{equation}
\begin{equation}
\begin{split}
0{,}1527 + 0{,}257 + 0{,}4581 \approx 0{,}87
\end{split}
\end{equation}
Hier ist das komplett ausgefüllte neuronale Netz für unsere Testperson:
\begin{figure}[H]
\centering
\includegraphics{/assets/images/ki-begriffsklaerung/image5.png}
\caption{Einfaches neuronales Netz}\label{fig:complete_network}
\end{figure}
\subsection{Fehlerrückführung}
Man muss einsehen, dass das Resultat, zu dem wir am Ende kamen, absolut zufällig ist.
In fast jeder Berechnung wurden Gewichte verwendet, die am Anfang zufällig ausgewählt wurden.
Das heißt, wenn ich mich für andere Gewichtung entschieden hätte, käme auch etwas anderes dabei
heraus. Und das ist jetzt die Aufgabe, die bevorsteht: die Gewichtung so anzupassen, dass sie
zu einem genaueren Ergebnis führt. Dieser Schritt heißt \textbf{Fehlerrückführung}. Man versucht
hier den Fehler geringer zu machen. In unserem Fall ist das Ergebnis, das wir erwartet haben, 0.7.
Statdessen haben 0.87, was um 0.17 größer als das erwartete Ergebnis. Wenn wir diese Distanz
zwischen dem aktuellen und dem erwarteten Ergebnis geringer machen, \textit{trainieren}
wir das neuronale Netz.
Es gibt mehrere Methoden, die Fehlerrückführung durchzuführen. Die einfachste (und die schlechteste
für die Praxis, weil sie für ein größeres Netz zu viel Zeit in Anspruch nehmen würde) wäre, einige der
Gewichte zu ändern (man kann dafür wiederum andere zufällige Zahlen von 0 bis 1 verwenden), und
alles dann nochmal mit diesen neuen Gewichten berechnet. Wenn man zu einem besseren Ergebnis kommt,
kann man versuchen, die Gewichtung weiter anzupassen, bis das Resultat zufriedenstellend ist. Wenn
das Ergebnis noch schlechter wird, versucht man dasselbe mit anderen Gewichten.
Das heißt, die \textbf{Vorwärtspropagation} und \textbf{Fehlerrückführung} werden mehrmals wiederholt,
bis das Endresultat ausreichend genau ist. Schließlich ist eine Testperson für das Trainieren des
neuronalen Netzes nicht ausreichend. Wenn wir weitere Daten erhalten, können wir sie genauso
einsetzen, und den Endwert mit denselben Gewichten für diese neuen Daten berechnen. Dann können
wir versuchen, die Gewichtung so anzupassen, dass für die beiden Fälle ein genaueres Ergebnis
herauskommt. Dann ziehen wir noch eine dritte Testperson hinzu und so weiter\dots{} Irgendwann haben
wir die Gewichtung so gewählt, dass wir damit rechnen können, dass wenn wir dem Netz neue Daten
übergeben, wir eine gute Einschätzung für die Endnote bekommen. Es ist kaum möglich mit dem oben
aufgeführten Netz. Neuronale Netze sind in der Praxis viel komplexer und haben mehrere verdeckte
Schichten, was genauere Anpassung der Gewichte ermöglicht.
\section{Lernerfolg. Turing-Test}
Im Zusammenhang mit dem maschinellen Lernen sprechen wir vom Lernerfolg. Allerdings wurde es noch nicht
geklärt, was Erfolg in diesem Fall bedeutet.
Um einen gewöhnlichen Einwand gegen den Erfolg der künstlichen Intelligenz zu erläutern, konstruieren
wir ein futuristisches Beispiel, das in einer oder der anderen Form zum Thema vieler Filme der letzten
Jahre geworden ist. Sagen wir, die Menschen haben einen Supercomputer entwickelt, dessen künstliche
Intelligenz dermaßen fortgeschritten ist, dass er selbst weitere Maschinen entwerfen und produzieren kann.
So beginnt eine neue Ära, in der die Maschinen sich selbt ohne die Einmischung des Menschen entwickeln.
Schlussendlich wird der Mensch zu einer überholten, schwachen Spezies, deren Existenz nicht mehr förderlich
für den weiteren technischen Fortschritt ist, sodass der mächtige Supercomputer sich dazu entscheidet,
die menschliche Art auszulöschen. Nun hatte der Supercomputer, der eine solche Macht erlangt hat, alles über
die Wissenschaft und Technik gelernt, was der Mensch je hätte lernen können, und diese Kenntnisse noch
weiter gebracht hat. Man könnte sich aber fragen, ob der Erfolg des Lernens an der Anzahl der Erkenntnisse
gemessen werden kann. In dem aufgeführten Beispiel hat sich die Technik, die der Mensch sich zuhilfe
schuf, hatte gegen den Menschen gewendet und so gegen das moralische Prinzip, nach dem das menschliche
Leben einen Wert an sich hat, verstoßen.
Wenn wir also vom Erfolg sprechen, beziehen wir den Erfolg nicht nur auf die eigentliche Tätigkeit (das
Erwerben von Erkenntnissen), sondern auch auf das Endresultat --- wie die erworbenen Erkenntnisse angewandt
werden. Bei der Bewertung ihrer Anwendung braucht man wiederum eine Ethik, die es ermöglicht, zu beurteilen,
ob die Anwendung richtig oder falsch, gut oder böse ist. Man sieht sofort, wie schnell das Problem des Erfolgs
sehr komplex und unübersichtlich wird. Ich werde deswegen dafür argumentieren, dass der Erfolg des
Lernens nur in dem Sinne des unmittelbaren Erfolgs ohne die Einbeziehung der Konsequenzen verstanden werden
muss. Desweiteren werde ich versuchen den Erfolg anhand des Turing-Tests etwas genauer zu bestimmen.
Alan Turing stand vor einem ähnlichen Problem, als er das, was wir heute Turing-Test nennen, vorgeschlagen
hat. Das Lernen, die Suche nach Gesetzmäßigkeiten und die Anwendung des Gelernten und Erforschten sind
wichtige Aspekte menschlicher Denktätigkeit. Wenn wir davon sprechen, dass die Computer selbstständig
lernen, stellt sich die Frage, ob sie dann auch denken kennen? Um zu sagen, ob die Computer denken
können, muss man dann definieren, was das Denken eigentlich ist und dann schauen, ob diese Definition
auf die Computersysteme angewandt werden kann.
Nun ist es aber alles andere als trivial, eine Definition für das Denken zu finden. Das eigentliche Problem
besteht aber nicht darin, dass eine solche Definition eine schwierige Aufgabe ist, sondern darin, dass
die Angabe einer Definition des Denkens sich sowohl dem Interessenbereich der Technik als auch
dem Interessenbereich der Wissenschaft entzieht. Wir verbinden das Denken mit den Gehirnaktivitäten. Aber
spielt es für einen Gehirnforscher in seiner wissenschaftlichen Forschung eine Rolle, was das Denken ist?
Er kann durchaus eine private Überzeugung haben, dass das, was wir unter dem Denken verstehen, nichts weiter
als die Gehirnaktivität ist, oder, dass das, was wir im Gehirn beobachten, nur auf eine bestimmte Weise
unser Denken repräsentiert. Aber ob er sich für die erste Möglichkeit, oder für die zweite, oder für eine
dritte entscheidet, ist für seine eigentliche wissenschaftliche Forschung von wenig Bedeutung. Auch
umgekehrt: Wenn man eines Tages weiß, dass man jede geistige Aktivität auf Gehirnaktivitäten zurückführen
kann, bedeutet es, dass ich mich ab dann für einen vollständig von den physikalischen Gesetzen
bestimmten Bio-Roboter halte, der keinen eigenen Willen hat?
Es ist ganz natürlich den Gegenständen menschliche Eigenschaften und Aktivitäten zuzurschreiben:
„Der Computer \textit{will} nicht funktionieren“. Natürlich kann es bei einem kaputten
Rechner keine Rede vom Willen sein. Das ist bloß eine Redewendung. Aber wenn die Computer viel
leistungsfähiger werden, passiert die Zuschreibung viel bewusster, wir fangen an, von ihrer Intelligenz,
ihrem Denken oder dem Erfolg ihrer Aktivitäten zu sprechen. Diese Begriffe sind aber in der Sprache sehr
oft ambivalent und werden intuitiv verwendet. Deswegen ist es auch problematisch, sie auf andere
Gegenstände zu übertragen.
Um das höchstproblematische Reden vom Denken im Fall der Computer zu vermeiden, hat Alan Turing
„The Imitation Game“\autocite[433f]{turing:mind} vorgeschlagen. Dieses Imitationsspiel
wird von drei Personen gespielt: einem Mann (A), einer Frau (B) und einem Fragesteller (C), dessen
Geschlecht für das Spiel irrelevant ist. Der Fragesteller kennt die beiden anderen Personen A und B
nicht und befindet sich in einem anderen Raum. Das Ziel des Spiels für den Fragesteller besteht
darin, richtig zu erraten, wer von A und B ein Mann und wer eine Frau ist. Dabei kann der Fragesteller
den übrigen Spielteilnehmern Fragen stellen und Antworten auf seine Fragen bekommen. Die Teilnehmer
kommunizieren miteinander so, dass der Befragende und die Befragten einander weder sehen noch
hören können, zum Beispiel sie könnten einander Texte über das Internet versenden. A und B sind nicht
verpflichtet, ehrliche Antworten auf die Fragen zu geben. Die Aufgabe von A ist, dem Befragenden zu
helfen, B soll ihn im Gegenteil in die Irre führen.\autocite[433f]{turing:mind}
\begin{quote}
We now ask the question, „What will happen when a machine takes the part of A in this
game?“ Will the interrogator decide wrongly as often when the game is played like this
as he does when the game is played between a man and a woman? These questions replace our
original, „Can machines think?“\autocite[434]{turing:mind}
\end{quote}
Das heißt, die Maschine soll die Rolle eines Spielers --- entweder A oder B --- übernehmen. Es gibt
keine Frau, keinen Mann und Fragesteller mehr, sondern einen Menschen, eine Maschine und den
Fragesteller (menschlich). Wenn es für den Fragesteller genauso schwierig ist, ohne einen direkten
Kontakt eine Maschine von einem Menschen zu unterscheiden, wie eine Frau von einem Mann, dann hat
die Maschine den Turing-Test bestanden.
Im Grunde, um den Erfolg des Lernens eines Computersystems zu bewerten, wird hier eine funktionale
Beschreibung verwendet. Anstatt nach der Washeit der Dinge zu fragen: Was ist Denken? Was ist Erfolg?
Können diese Begriffe auf ein Computersystem angewandt werden?, fragt man, ob und wie gut das System
eine bestimmte Funktion ausführen, einen Test bestehen kann. Der Turing-Test scheint mir auch die beste
Methode zu sein, um den Erfolg des Lernes eines Computersystems zu bewerten. Vor allem, weil so ein
funktionaler Test einen Aufschluss darüber gibt, welche Stufe in der Entwicklung der künstlichen
Intelligenz man bereits erreicht hat, und was noch verbessert werden muss, um den Lernerfolg zu
vergrößern. Er gibt auch eine Skala an, von der abgelesen werden kann, ob ein Algorithmus bessere
Ergebnisse liefert als ein anderer. Dies ermöglicht den technischen Fortschritt und die Verbesserung
der Algorithmen. Diese Skala gibt es aber nicht oder sie ist sehr verschwommen, wenn der Lernerfolg eine
ethische Perspektive haben soll.
Was ich hiermit nicht sagen will, ist, dass die Ethik für die Entwicklung der
künstlichen Intelligenz unwichtig ist. Es macht nur wenig Sinn sie in die Definition des Lernerfolgs
eines künstlichen Systems einzubeziehen. Um so ein System weiter zu entwickeln, braucht man eine
technische Definition des Erfolgs, die ermöglicht, die Schwächen dieses Systems aufzuzeigen, an denen
noch gearbeitet werden soll. Eine voreilige Einbeziehung einer ethischen Bewertung würde den Fortschritt
im Bereich der künstlichen Intelligenz unnötig verkomplizieren und verlangsamen. Eine ethische Bewertung
der künstlichen Intelligenz als solchen und dessen, wie sie eingesetzt wird, ist im Gegenteil nützlich
und nötig, um die Möglichkeit einer bösartigen Anwendung deren zu verringern.
Ich meine auch nicht, dass eine ethische Auseinandersetzung der technischen Entwicklung zeitlich
folgen soll. Es kann zu spät sein, sich mit etwas auseinanderzusetzen, was schon da ist. Vielmehr sollen
die Bereiche des Technischen und Ethischen voneinander getrennt sein. Wenn ein Informatiker oder ein
Mathematiker an einem neuen Algorithmus für maschinelles Lernen arbeitet, ist er wahrscheinlich
gar nicht daran interessiert, ein künstliches System zu erschaffen, das ihm ermöglicht, die Welt
zu beherrschen, womöglich ist er nur an seinem Fach interessiert und will sehen, wie weit man die
künstliche Intelligenz bringen kann. Natürlich soll man sich Gedanken darüber machen, was passiert,
wenn man den neuen Algorithmus oder die neue Technologie auf den Markt bringt, das darf aber nicht
der eigentlichen Forschung im Wege stehen.
\section{Dritt- und Erstperson-Perspektive}
Kommen wir auf die Frage „Können die Maschinen denken?“ zurück. Was ist an dieser
Frage so problematisch, sodass Alan Turing sie umzugehen suchte, außer dass der Begriff
„Denken“ schwierig zu definieren ist. Oder warum ist er schwierig zu
definieren? Das Denken für den Menschen ist ein \textit{Erlebnis}, das heißt ich erlebe mich
selbst als ein denkendes Wesen. Ich gehe davon aus, dass auch die anderen Menschen sich als
denkende Wesen erleben, obwohl ich nicht mit Sicherheit sagen kann, wie sich das Denken eines
anderen Menschen für ihn anfühlt, was und wie er denkt. Man denke nur an die Diskussionen, ob
Tiere Freude oder Leiden empfinden können, ob sie denken können. Es ist relativ naheliegend,
dass andere Menschen denken können, aber es ist nicht klar, ob man das von den anderen Lebewesen
behaupten kann. Desto unklarer ist es, wenn man von etwas spricht, was überhaupt kein
Lebewesen ist.
Anstatt der Maschine einen Geist und eine Art Innerlichkeit zuzuschreiben, entwickelt sich aber
die Tendenz, den Menschen mechanisch zu verstehen. Wenn Sören Kierkegaard sagt:
„Der Mensch ist Geist“\autocite[11]{kierkegaard:krankheit}, so heute ist der Mensch immer
öfter sein Gehirn: „In Germany, leading neuroscientists like Wolf Singer and Gerhard
Roth are omnipresent in TV and press. They speak of the brain as if they were talking about a
person.“\autocite[164]{foerster:neuroturn} Kierkegaards Mensch und sein Geist waren nicht bloß
eine immaterielle Substanz, sondern vielmehr eine Synthese „aus Unendlichkeit und Endlichkeit,
aus dem Zeitlichen und dem Ewigen, aus Freiheit und
Notwendigkeit, [\dots]“\autocite[11]{kierkegaard:krankheit} Ob die Beschreibung des Menschen
als Gehirn genauer zutrifft, ist fraglich. Yvonne Förster in ihrem Artikel „Effects of the
Neuro-Turn: The Neural Network as a Paradigm for Human Self-Understanding“ macht darauf
aufmerksam, dass obwohl bei der Erforschung des Gehirns nur die Drittperson-Perspektive in die Betrachtung
einbezogen wird, eine Verschiebung der Terminologie von der Philosophie zu den Neurowissenschaften
stattfindet:
\begin{quote}
While phylosophy works with concepts, experience, reflection, and linguistic
description, neuroscience, on the other hand, uses these philosophical terms within
a third-person framework of observation, imaging techniques, and
measurements.\autocite[163]{foerster:neuroturn}
\end{quote}
Eine Reihe von Begriffen, wie der freie Wille oder das Bewusstsein, für die die Innenperspektive
unentbehrlich ist, werden aus der Drittperson-Perspektive beurteilt und beschrieben.
Doris Nauer spricht auch davon, dass bei der Erforschung geistiger Funktionen
„NaturwissenschaftlerInnen zunehmend die Interpretationsgrenzen rein naturwissenschaftlicher
Forschung überschreiten“.\autocite[35]{nauer:seelsorge}
Außerdem merkt Förster an, dass die Neurowissenschaften keinen direkten Zugang auch zum Gehirn oder den
Neuronen selbst haben, vielmehr arbeiten sie mit Modellen:
\begin{quote}
The neural gains its visibility only via technology. The process of making the neural visible is
not a simple representation of something otherwise hidden. Rather it is a production of images by
means imaging techniques. What we get to see is not the inside of our skull, not copies of our
neurons, but reconstructions modeled according to a certain set of rules of computation. The neural
net as we know it from neuroscientific imagery is not a photograph of brain parts. It is deeply
technological mediated.\autocite[172]{foerster:neuroturn}
\end{quote}
Das Selbstverständnis des Menschen und das Verständnis der Maschine und der künstlichen Intelligenz sind
voneinander abhängig. Wenn wir die Maschinen konstruieren, die selbst lernen und vielleicht denken können,
und so den Menschen nachahmen, lernen wir auch etwas über die menschlichen Denkprozesse und dem
Zusammenhang zwischen dem Bewusstsein und dem Gehirn. Andererseits um
zu entscheiden, ob die Maschinen denken oder ein geistiges Leben haben können, ist unser Menschenbild
wichtig, weil es von ihm abhängt, ob sich das, was wir unter dem Menschen verstehen, auf die Maschine
übertragen lässt.
\section{Zum Begriff der Intelligenz}
Eine der Fragen, die sich noch stellen, ob wir im Falle der künstlichen Intelligenz überhaupt von
der \textit{Intelligenz} sprechen kann, wie wir von der menschlichen sprechen. Ich möchte von vornherein
sagen, dass diese Frage nicht eindeutig zu beantworten ist. Von einem Menschen zu sagen, er sei intelligent,
ist nicht dasselbe, wie zu sagen: „Zwei ist eine gerade Zahl“.
Erstens, je nachdem wer das Wort „intelligent“ sagt, kann man darunter unterschiedliche
Eigenschaften meinen. Für einen mag intelligent derjenige sein, der über viele Fachkentnisse in
einem bestimmten Bereich verfügt. Für einen anderen ist es der, der allgemein gebildet ist und nicht
nur in bestimmten Bereichen. Für den dritten spielen die erworbenen Kenntnisse überhaupt eine geringere
Rolle, viel wichtiger, um intelligent zu sein, sei es, schlau zu sein, schnell die Lösungen für die
auftretenden Probleme zu finden.
Zweitens hängt die Antwort auf die Frage, ob man so eine Eigenschaft wie „Intelligenz“
auf eine Maschine übertragen kann, sehr stark von anthropologischen Ansichten der jeweiligen Person.
Ist der Mensch selbst wahrscheinlich nichts weiter als eine Art von der Natur erschaffener Roboter?
In diesem Fall kann wohl auch eine vom Menschen konstruierte Maschine Intelligenz haben. Wenn der Mensch
dagegen ein geistiges Wesen ist, das nicht vollständig durch physikalische Gesetze determeniert ist,
dann ist es qualitativ etwas anderes als eine Maschine und man könnte argumentieren, dass deswegen bestimmte
Eigenschaften wie Intelligenz nur dem Menschen zugeschrieben werden können.
Der Stand der Entwicklung rechtfertigt nicht immer die Anwendung des Begriffes „Intelligenz“
im Bezug auf die Maschinen. Bereits heutige Computer sind in bestimmten Bereichen
intelligenter als die Menschen. Zum Beispiel kann jeder der heutigen Prozessoren (oder CPU,
\textbf{C}entral \textbf{P}rocessing \textbf{U}nit) einfache Berechnungen, wie Multiplizieren,
Dividieren, Addieren oder Substrahieren, vielfach schneller durchführen als ein Mensch. Und diese
Fähigkeit besitzten bereits die Computer der neunziger Jahre des vergangenen Jahrhunderts, als die künstliche
Intelligenz noch nicht so verbreitet war. Schnelles Rechnen kann auch ein Merkmal der Intelligenz sein.
Und doch spricht man von der künstlichen Intelligenz meistens in Bezug auf maschinelles Lernen. Dies zeigt,
dass wenn man von intelligenten Maschinen spricht, meint man eine bestimmte Art von der Intelligenz, und
zwar meint man die Maschinen, die das Können besitzen, nicht nur die einprogrammierten
„Kenntnisse“ anzuwenden, sondern auch neue Erkenntnisse selbstständig zu gewinnen. Das heißt
Intelligenz knüpft hier an die \textit{schöpferische} Kraft des Menschen, an die Kraft etwas neues
zu \textit{erschöpfen}. Natürlich ist es nicht dasselbe wie Erschaffen eines Kunstwerkes oder eines
Musikstückes, weil das, was erkannt wird, schon da ist, es nicht aus Nichts geschaffen wird. Und doch
ist auch das Gewinnen der Erkenntnisse aus der Erfahrung, die vorher nicht waren, ist das Gewinnen von
etwas \textit{neuem}, also ein schöpferischer Vorgang. Und dieser Übergang zwischen einer die Befehle
ausführenden und einer lernenden Maschine ist wohl die Grenze, ab der die Maschinen
\textit{intelligent} werden.
Wie weit die künstliche Intelligenz reicht oder reichen kann, lässt sich noch nicht sagen. Wir haben
noch keine Roboter, die malen, Romane oder Lieder schreiben oder physikalische Gesetze entdecken. Wie
am Beispiel mit dem neuronalen Netz gezeigt wurde, geht es bei maschinellem Lernen um das Erkennen
bestimmter Muster in der Eingabedaten. Falls so ein Muster tatsäschlich erkannt wurde, dann können anhand
dessen auch neue Daten ausgewertet werden. Dem lernenden System geht es nicht um die Forschung oder die
Suche nach der Wahrheit. Und hier ist es nicht mal wichtig, was Wahrheit ist, und ob es sie gibt. Wenn
ein Schriftsteller schreibt, sehnt er oft aus dem tiefsten seines Herzens, seinen Lesern etwas
mitzuteilen, seine Wahrheit zu verkünden. Auch ein Forscher kann von diesem Gefühl bewegt werden,
selbst wenn seine Theorie sich später als falsch erweist, hat er versucht, etwas Wahres zu entdecken.
Ein lernendes System hat überhaupt keinen Sinn für die Wahrheit. Es wurde programmiert, um Muster in
den Daten zu erkennen und das tut es. Wenn ich weiß, wie ein System aufgebaut ist, kann ich es von
vornherein mit manipulierten Daten füttern, sodass es etwas falsch lernt, und es wird sich nicht
betrogen fühlen. Wobei ich zugeben muss, dass es auch einem Menschen passieren kann, dass er sich
auf falsche, falsch ausgewählt Daten, stützt, und deswegen zu inkorrekten Ergebnissen gelangt.
Die Mustererkennung ist wichtig auch für das menschliche Überleben. Allerdings vermag der Mensch auch
abstrakt zu denken. Es gibt zum Beispiel in der Natur keine Zahlen, es gibt nur abzählbare Gegenstände.
Man muss sich von den einzelnen Gegenständen beziehungsweise ihrer endlichen Anzahl abstrahieren können,
um auf die unendliche Menge von natürlichen Zahlen kommen. Diese Fähigkeit zum abstrakten Denken ist etwas,
was den Menschen gegenüber den Maschinen immer noch auszeichnet.
\section{Grenzen der Anwendung von maschinellem Lernen}
Zwar ist die künstliche Intelligenz zum selbstständigen Lernen fähig, ist kein selbstständiges
Lebewesen wie der Mensch, sondern nur ein Instrument unter vielen anderen.
Nehmen wir an, wir wollen quadratische Gleichungen in der Normalform lösen:
\begin{equation}
x^2 + px + q = 0
\end{equation}
Dafür beabsichtigen wir ein Programm zu schreiben, das die 2 Parameter, $p$ und $q$, als
Eingabewerte annimmt und die Gleichung nach $x$ auflöst. Man kann diese Aufgabe durchaus mithilfe der
künstlichen Intelligenz lösen. Wir entwerfen ein neuronales Netz, das zwei Neuronen in der
Eingabeschicht und zwei in der Ausgabeschicht hat. Dann lösen wir einige Tausende solcher Gleichungen
selbst und übergeben die Eingaben und die Lösungen dem Netz, damit es aus diesen Daten lernen kann.
Dann testen wir, ob das Netz nun selbst richtige Antworten produzieren kann. Wenn es nicht der Fall
sein soll, bereiten wir weitere Angaben und Lösungen vor. Irgendwann haben wir das neuronale Netz
ausreichend trainiert, sodass es jetzt selbst solche Gleichungen lösen kann.
Eigentlich wissen wir aber, wie man eine quadratische Gleichung löst. Genauso gut könnten wir den folgenden
Algorithmus in einem Programm implementieren:\autocite[Vgl.][10f]{lothar:math}
\begin{enumerate}
\item Berechne die Diskriminante $D$:
\begin{equation}
D = {(p/2)}^2 - q
\end{equation}
\item Wenn $D \geq 0$ ist, gibt es zwei reelle Lösungen:
\begin{equation}
x_{1/2} = -\frac{p}{2} \pm \sqrt{D}
\end{equation}
\item Wenn $D < 0$ ist, gibt es zwei konjugiert komplexe Lösungen:\autocite[Vgl.][676]{lothar:math}
\begin{equation}
x_{1/2} = -\frac{p}{2} \pm j \cdot \sqrt{\left|D\right|}
\end{equation}
\end{enumerate}
Der Aufwand, dieses Programm, zu schreiben ist viel geringer als die Variante mit der künstlichen
Intelligenz. Was noch viel wichtiger für ein Programm, das mathematische Berechnungen durchführt, ist,
ist, dass wir wissen, dass, wenn der Algorithmus korrekt implementiert ist, er richtige Ergebnisse
liefert. Im Falle des neuronalen Netzes ist es nicht so. Wenn das neuronale Netz komplex genug ist,
können wir nicht mehr nachvollziehen, wie eine bestimmte Berechnung durchgeführt wird, das heißt, wir
können nicht überprüfen, ob der Algorithmus für alle Paare $p$ und $q$ das richtige Ergebnis liefert.
Für die Anwendungsfelder des maschinellen Lernens ist eine solche Genauigkeit auch nicht unbedingt
erforderlich. Wenn ein soziales Netzwerk setzt künstliche Intelligenz ein, um gezielte Werbung
anzuzeigen, dann ist es durchaus vorteilhaft, wenn die Werbung den Nutzer anspricht, aber es ist immer
noch zulässig, wenn die Wahl der Werbung nicht optimal ist. Es genügt, wenn die Werbung
\textit{interessant genug} für den Nutzer ist, oder dass ein gewisser Profit durch sie erreicht wird.
Künstliche Intelligenz ist keine universelle Lösung für alle Probleme. Sie ist sehr nützlich für
die Auswertung von großen Mengen an Daten und für die Suche nach Mustern in diesen, aber ist noch
nicht fähig abstrakte, e\@.g\@. mathematische Probleme zu lösen.
\section{Fazit}
Über viele Fragen lässt es heute nur spekulieren. Können die Maschinen alle Tätigkeiten ausüben, die
die Menschen ausüben? Sind sie eine neue Evolutionsstufe, sodass sie die Menschen eines Tages
verdrängen und überflüssig machen? Oder werden die Maschinen und Menschen weiterhin friedlich
coexistieren? Einige Autoren versuchen bereits diese Fragen zu beantworten. Ich wage heute noch nicht,
auf sie eine Antwort zu geben. Schließlich ist die Entwicklung der Wissenschaft und der Technik
auch von einer Reihe von sozialen, politischen und wirtschaflichen Faktoren mitbestimmt.
Künstliche Intelligenz und Maschinelles Lernen ist ein junges Konzept, dem viel Aufmerksamkeit von
verschiedenen Siten geschenkt wird. Die Technik und Informatik sind daran interessiert, weil es ermöglicht
neue, selbst „denkende“ Programme zu schreiben; Naturwissenschaften hoffen durch künstliche
auch die menschliche Intelligenz besser zu verstehen; man sieht auch Potenzial, den Menschen noch mehr
vom Last der Arbeit zu befreien, aber man warnt auch vor den Gefahren der Verselbständigung der
Computertechnik oder deren Missbrauch. Naturwissenschaftliche Forschung hatte schon fatale Folgen, sie
ermöglichte zum Beispiel eines Tages die Erschaffung der Atomwaffen, was vielen unschuldigen Menschen
ihr Leben kostete. Doch sie hat auch einen soliden Beitrag zur modernen Medizin und Technik geleistet,
auf die wir uns jeden Tag verlassen. Um die künstliche Intelligenz scheint es ähnlich zu stehen: Es ist
ein kontroverses Thema.

View File

@@ -14,8 +14,6 @@
<link rel="icon" type="image/png" href="/assets/images/favicon.svg">
<link href="/assets/css/styles.css?v=1" rel="stylesheet">
<link href="/assets/css/custom.css?v=2" rel="stylesheet">
$partial("_includes/scripts.html")$
</head>
<body>