

Beschreibung
Geniale Ideen einfach erklärt: der verständliche Einstieg in die KI-WeltNeuronale Netze sind die Technologie hinter Deep Learning, Machine Learning und generativer Künstlicher Intelligenz wie ChatGPT. Sie revolutionieren derzeit die verschiedensten Anwendungsg...Geniale Ideen einfach erklärt: der verständliche Einstieg in die KI-WeltNeuronale Netze sind die Technologie hinter Deep Learning, Machine Learning und generativer Künstlicher Intelligenz wie ChatGPT. Sie revolutionieren derzeit die verschiedensten Anwendungsgebiete vom Strategiespiel bis zur Bild- und Spracherkennung. In neuronalen Netzen stecken geniale Ideen, die sich zum Glück einfach erklären lassen.Unsere Experten helfen Ihnen dabei, neuronale Netze zu verstehen und selber zu entwickeln. Um sie gewinnbringend einzusetzen, programmieren Sie verschiedene Netztypen selbst nach. Und zwar in Python, der Hauptsprache der KI-Welt. Sie werden sich dabei mit Mathematik und Programmierung befassen, brauchen aber keine konkreten Vorkenntnisse. Roland Schwaiger und Joachim Steinwendner erklären Ihnen alles besonders anschaulich mit zahlreichen Abbildungen. Ein faszinierendes Buch, das Ihnen den Durchblick in der KI-Welt bringt. Komplett in Farbe.Schneller Einstieg mit allen Python- und MathegrundlagenLernalgorithmen, Aktivierungsfunktionen, Backpropagation, Transformer-NetzeInkl. Online-Lernumgebung und Einstieg in TensorFlowKomplett in Farbe, mit zahlreichen Abbildungen und Grafiken Aus dem Inhalt:Die Grundidee hinter Neuronalen NetzenEin einfaches Neuronales Netz aufbauenNeuronale Netze trainierenÜberwachtes und unüberwachtes LernenEinführung in TensorFlowKompaktkurs PythonWichtige mathematische GrundlagenReinforcement LearningVerschiedene Netzarten und ihre AnwendungsbereicheBack PropagationDeep LearningWerkzeuge für Data Scientists
»Neuronale Netze programmieren mit Python ist eine ausgezeichnete Wahl für jeden, der sich intensiv mit künstlicher Intelligenz und maschinellem Lernen auseinandersetzen möchte. Die Kombination aus theoretischer Fundierung, praktischen Übungen und moderner Didaktik macht dieses Buch zu einer wertvollen Ressource für Studierende, Fachleute und Technik-Enthusiasten gleichermaßen. Besonders hervorzuheben ist die gelungene Balance zwischen Zugänglichkeit und Tiefgang, die es sowohl Einsteigern als auch Fortgeschrittenen ermöglicht, von diesem Werk zu profitieren.«
Vorwort
Der Einstieg in KI, Machine Learning und Deep Learning. Mit KI-Lernumgebung, Python-Crashkurs, Keras und TensorFlow
Autorentext
Prof. Dr. Joachim Steinwendner ist Forschungsfeldleiter für Digital GeoHealth an der Fernfachhochschule Schweiz mit einer fundierten Expertise in Data Science, Maschinellem Lernen, Empfehlungssystemen und Deep Learning. Seine Forschungsarbeit umfasst die Entwicklung und Anwendung Künstlicher Intelligenz, insbesondere Neuronaler Netze, in den Domänen der Gesundheits- und Geoinformatik. Als Dozent an verschiedenen Hochschulen (unter anderem der ETH Zürich) legt er großen Wert darauf, komplexe KI-Technologien didaktisch ansprechend und verständlich zu vermitteln, um Studierende für diese Themen zu begeistern und praxisnah auf die Herausforderungen der digitalen KI-Transformation vorzubereiten.
Klappentext
Neuronale Netze stehen im Mittelpunkt, wenn es um Künstliche Intelligenz und Machine Learning geht. Sie revolutionieren Bild- und Spracherkennung, Spiele-KIs und vieles mehr. Zum Glück lassen sich die genialen Ideen dahinter einfach erklären. Um sie zu verstehen und einzusetzen, programmieren Sie verschiedene Netztypen selbst nach! Und zwar in Python, der Hauptsprache der KI-Welt. Sie werden sich dabei mit Mathematik und Programmierung befassen, brauchen aber keine konkreten Vorkenntnisse. Aus dem Inhalt: Die Grundidee hinter Neuronalen Netzen Ein einfaches Neuronales Netz aufbauen Neuronale Netze trainieren Überwachtes und unüberwachtes Lernen Einführung in TensorFlow Kompaktkurs Python Wichtige mathematische Grundlagen Reinforcement Learning Verschiedene Netzarten und ihre Anwendungsbereiche Back Propagation Deep Learning Werkzeuge für Data Scientists
Inhalt
Vorwort ... 13
Vorwort zur 2. Auflage ... 16
Vorwort zur 3. Auflage (in Kooperation mit einem Transformer Neural Network) ... 17
1. Einleitung ... 19
1.1 ... Wozu neuronale Netze? ... 19
1.2 ... Über dieses Buch ... 20
1.3 ... Der Inhalt kompakt ... 22
1.4 ... Ist diese Biene eine Königin? ... 25
1.5 ... Ein künstliches neuronales Netz für den Bienenstaat ... 26
1.6 ... Von der Biologie zum künstlichen Neuron ... 32
1.7 ... Einordnung und der Rest ... 36
1.8 ... Zusammenfassung ... 45
1.9 ... Referenzen ... 45
TEIL I. Up and running ... 47
2. Das minimale Starterkit für die Entwicklung von neuronalen Netzen mit Python ... 49
2.1 ... Die technische Entwicklungsumgebung ... 49
2.2 ... Zusammenfassung ... 72
3. Ein einfaches neuronales Netz ... 73
3.1 ... Vorgeschichte ... 73
3.2 ... Her mit dem neuronalen Netz! ... 73
3.3 ... Neuron-Zoom-in ... 77
3.4 ... Stufenfunktion ... 82
3.5 ... Perceptron ... 84
3.6 ... Punkte im Raum -- Vektorrepräsentation ... 85
3.7 ... Horizontal und vertikal -- Spalten- und Zeilenschreibweise ... 92
3.8 ... Die gewichtete Summe ... 95
3.9 ... Schritt für Schritt -- Stufenfunktionen ... 95
3.10 ... Die gewichtete Summe reloaded ... 96
3.11 ... Alles zusammen ... 97
3.12 ... Aufgabe: Roboterschutz ... 100
3.13 ... Zusammenfassung ... 103
3.14 ... Referenzen ... 103
4. Lernen im einfachen Netz ... 105
4.1 ... Vorgeschichte: Man lässt planen ... 105
4.2 ... Lernen im Python-Code ... 106
4.3 ... Perceptron-Lernen ... 107
4.4 ... Trenngerade für einen Lernschritt ... 110
4.5 ... Perceptron-Lernalgorithmus ... 112
4.6 ... Die Trenngeraden bzw. Hyperplanes oder auch Hyperebenen für das Beispiel ... 117
4.7 ... scikit-learn-kompatibler Estimator ... 120
4.8 ... scikit-learn-Perceptron-Estimator ... 127
4.9 ... Adaline ... 129
4.10 ... Zusammenfassung ... 139
4.11 ... Referenzen ... 141
5. Mehrschichtige neuronale Netze ... 143
5.1 ... Ein echtes Problem ... 143
5.2 ... XOR kann man lösen ... 145
5.3 ... Vorbereitungen für den Start ... 150
5.4 ... Der Plan für die Umsetzung ... 152
5.5 ... Das Setup (»class«) ... 153
5.6 ... Die Initialisierung (»init«) ... 155
5.7 ... Was für zwischendurch (»print«) ... 158
5.8 ... Die Auswertung (»predict«) ... 159
5.9 ... Die Verwendung ... 161
5.10 ... Zusammenfassung ... 162
6. Lernen im mehrschichtigen Netz ... 163
6.1 ... Wie misst man einen Fehler? ... 163
6.2 ... Gradientenabstieg an einem Beispiel ... 165
6.3 ... Ein Netz aus sigmoiden Neuronen ... 174
6.4 ... Der coole Algorithmus mit Vorwärts-Delta und Rückwärts-Propagation ... 176
6.5 ... Ein fit-Durchlauf ... 189
6.6 ... Zusammenfassung ... 198
6.7 ... Referenz ... 198
7. Beispiele für tiefe neuronale Netze ... 199
7.1 ... Convolutional Neural Networks ... 199
7.2 ... Transformer Neural Networks ... 216
7.3 ... Das Optimierungsverfahren ... 226
7.4 ... Overfitting verhindern ... 228
7.5 ... Zusammenfassung ... 230
7.6 ... Referenzen ... 231
8. Programmierung von Deep Neural Networks mit TensorFlow 2 ... 233
8.1 ... Convolutional Networks zur Handschriftenerkennung ... 233
8.2 ... Transfer Learning mit Convolutional Neural Networks ... 249
8.3 ... Transfer Learning mit Transformer Neural Networks ... 259
8.4 ... Zusammenfassung ... 264
8.5 ... Referenzen ... 265
TEIL II. Deep Dive ... 267
9. Vom Hirn zum Netz ... 269
9.1 ... Ihr Gehirn in Aktion ... 270
9.2 ... Das Nervensystem ... 270
9.3 ... Das Gehirn ... 271
9.4 ... Neuronen und Gliazellen ... 274
9.5 ... Eine Übertragung im Detail ... 276
9.6 ... Darstellung von Zellen und Netzen ... 279
9.7 ... Zusammenfassung ... 280
9.8 ... Referenzen ... 281
**10. Die Evolution der künstliche…
