Zusammenfassung
Definiert man den Begriff der KI wie im Buch von Elaine Rich [Ric83] ″ Artificial Intelligence is the study of how to make computers do things at which, at the moment, people are better.″ und bedenkt, dass die Computer uns Menschen insbesondere bezüglich der Lernfähigkeit weit unterlegen sind, dann folgt daraus, dass die Erforschung der Mechanismen des Lernens und die Entwicklung maschineller Lernverfahren eines der wichtigsten Teilgebiete der KI darstellt.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Python ist eine moderne Skriptsprache mit sehr übersichtlicher Syntax, mächtigen Datentypen und umfangreicher Standardbibliothek, die sich für diesen Zweck anbietet.
- 2.
Vorsicht! Dies ist kein Konvergenzbeweis für die Perzeptron Lernregel. Es zeigt nur, dass das Perzeptron konvergiert, wenn die Trainingsdatenmenge aus einem einzigen Beispiel besteht.
- 3.
Die Funktionale a r g m i n und a r g m a x bestimmen, ähnlich wie \(\min\) und \(\max\), Minimum oder Maximum einer Menge oder Funktion. Sie liefern aber nicht den Wert des Minimums oder Maximums, sondern die Stelle, an der dieses auftritt, also das Argument und nicht den Funktionswert des Minimums oder Maximums.
- 4.
Der Hamming-Abstand zweier Bit-Vektoren ist die Anzahl unterschiedlicher Bits der beiden Vektoren.
- 5.
Um das Beispiel einfach und anschaulich zu halten, wurde der Merkmalsvektor x bewusst eindimensional gehalten.
- 6.
Die Dreitagesneuschneesumme ist zwar eines der wichtigsten Merkmale zur Bestimmung der Gefahrenstufe. In der Praxis werden aber noch andere Attribute verwendet [Bra01]. Das hier verwendete Beispiel ist vereinfacht.
- 7.
In (7.9) wird zur Definition der Entropie der natürlich Logarithmus verwendet. Da hier und auch bei der MaxEnt-Methode nur Entropien verglichen werden, spielt dieser Unterschied keine Rolle (siehe Aufgabe 8.12).
- 8.
Besser wäre es allerdings, beim Pruning den Fehler auf den Testdaten zu verwenden. Zumindest dann, wenn die Zahl der Trainingsdaten ausreicht, um eine separate Testmenge zu rechtfertigen.
- 9.
Eine Skalierung der Merkmale ist für viele Verfahren des maschinellen Lernens notwendig oder vorteilhaft.
- 10.
Der Nearest Neighbour-Algorithmus ist nicht zu verwechseln mit der Nearest Neighbour-Methode zur Klassifikation aus Abschn. 8.3.
- 11.
Ein minimal aufspannender Baum ist ein zyklenfreier ungerichteter Graph mit minimaler Summe der Kantenlängen.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Copyright information
© 2013 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Ertel, W. (2013). Maschinelles Lernen und Data Mining. In: Grundkurs Künstliche Intelligenz. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-8348-2157-7_8
Download citation
DOI: https://doi.org/10.1007/978-3-8348-2157-7_8
Published:
Publisher Name: Springer Vieweg, Wiesbaden
Print ISBN: 978-3-8348-1677-1
Online ISBN: 978-3-8348-2157-7
eBook Packages: Computer Science and Engineering (German Language)