Springe zum Hauptinhalt

Künstliche Intelligenz

Einführung in die Künstliche Intelligenz

Sommersemester 2026

Vorlesung: Donnerstag, 09.30 - 11.00, A10.305 (1/305) (Prof. F.H. Hamker)
Übung: Montag, 09.15 - 10.45, A13.219 (1/219) (Dr. M. Teichmann, I. Koulouri)
Übung: Donnerstag, 13.45 - 15.15, A10.205 (1/205) (Dr. M. Teichmann, I. Koulouri)

Information

Anmeldung: https://bildungsportal.sachsen.de/opal/auth/RepositoryEntry/23116349499.

Inhalte

Einführung in das Gebiet der Künstlichen Intelligenz unter Bearbeitung folgender Themen:

  • Intelligente Agenten
  • Problemformulierung und Problemtypen
  • Problemlösen durch Suchen
  • Problemlösen durch Optimieren
  • Optimierung und Constraints
  • Probabilistische Methoden
  • Neuronale Netze
  • Informationstheorie
  • Lernen von Entscheidungsbäumen
  • Reinforcement Lernen

Randbedingungen

Empfohlene Voraussetzungen: Grundkenntnisse Mathematik I bis IV

Prüfung: 90-minütige Klausur, 5 Leistungspunkte

Literatur


Syllabus

  • Was ist Künstliche Intelligenz (KI)?
  • Ziele der KI
  • Geschichte der Künstlichen Intelligenz
  • Welche Disziplinen beeinflussen die KI?
  • Wo stehen wir?
  • Gefahren der KI
  • KI an der TU Chemnitz
  • Literatur

  • What is Artificial Intelligence (AI)?
  • Goals of AI
  • The History of Artificial Intelligence
  • Can we build intelligent machines?
  • Which do disciplines affect the AI?
  • AI an der TU Chemnitz
  • Literature

  • Problemformulierung
  • Problemtypen
  • Beispielprobleme

  • Verbundwahrscheinlichkeit
  • Summenregel
  • Produktregel
  • Bayes Theorem
  • Apfel/Orange Beispiel
  • A priori- und A posteriori Wahrscheinlichkeit
  • Beispiele
  • Bayesscher Wahrscheinlichkeitsbegriff
  • Wahrscheinlichkeitsdichte
  • Bayes Theorem für kontinuierliche Variablen
  • Erwartungswert
  • Varianz und Kovarianz
  • Wahrscheinlichkeitsdichteverteilungen

  • Optimierung - anschaulich
  • Bergsteigen
  • Simuliertes ausglühen
  • Genetische Algorithmen
  • Vergleich: Suche und Optimieren
  • Lokale Suche in kontinuierlichen Räumen
  • Gradientenverfahren
  • Lagrangefunktion

  • Einführung
  • Aufbau künstlicher Neuronaler Netze
  • Perzeptron und Trennbarkeit
  • Historie und Zukunft Neuronaler Netze
  • Lernen in künstlichen Neuronalen Netzen
  • Lernen im Perzeptron
  • Delta-Lernregel
  • Backpropagation Lernregel
  • Verwendung und Bewertung Neuronaler Netze
  • Unüberwachtes und Hebb‘sches Lernen
  • Deep Learning
  • Spiking Neuronen
  • Reservoir Computing und Echo-State Netze

  • Optimale Trennebenen
  • SVM Entscheidungsregel
  • Maximaler Rand
  • Lagrange Optimierung
  • Support Vektoren
  • Soft Margin Klassifikator
  • Nicht-lineare Grenzen
  • Kernel
  • Diskussion

  • Elemente des Reinforcement Lernens
  • Die Markov Eigenschaft
  • Value Funktionen
  • Bellmann Gleichungen
  • Policy Evaluation
  • TD Methoden
  • SARSA
  • Q-Learning
  • Actor-Critic
  • Eligibility traces
  • Deep Q-Network

  • Entropie
  • Differentielle Entropie
  • Verbundentropie
  • Bedingte Entropie
  • Kullback-Leibler-Distanz
  • Gemeinsame Information

  • Klassifikation
  • Aufbau eines Entscheidungsbaums
  • Klassifikation neuer Beispiele
  • Lernen von Entscheidungsbäumen
  • Informationsgewinn
  • ID3
  • Informationsgewinnverhältnis
  • C4.5

  • Grundlagen
  • Qualität von Schätzern
  • Kleinste-Quadrate-Schätzer
  • Maximum Likelihood
  • Cue Integration
  • Bayesian Schätzer
  • Maximum a posteriori (MAP) Schätzer
  • EM Algorithmus