Die erste Woche MLSS ist vorbei. Zeit also für einen kleinen Wochenrückblick und eine Übersicht über das, was wir hier so machen.
Wir hatten in der ersten Woche 5 (Kleinst-)Vorlesungen zu je 6 Stunden.
"Reinforcement Learning and Knowledge Representation" (Rich Sutton)
Einer der beiden Kurse, die sich auch mit künstlicher Intelligenz im generellen (im Unterschied zur reinen Funktionsapproximation) beschäftigen. Die Grundthese von Sutton ist, dass künstliche Intelligenz aus Erfahrungen lernen sollte. Auf dieser Grundlage wurden dann verschiedene Algorithmen zum lernen aus abgeschlossenen Episoden vorgestellt (Time Difference Learning und Sarsa vor allem). Witzig: Sutton ist der Autor der Folien, die auch an der Uni Paderborn im Maschinenlern Kurs verwendet werden. Er erklärt es aber natürlich viel besser.
"Feature Selection" (Isabelle Guyon)
Leicht verständlich, aber nicht unbedingt sehr interessant, da Feature Selection für neuere ML Verfahren oft nicht nötig ist. Spannend war aber ein Algorithmus zum entdecken von kausalen Zusammenhängen zwischen einzelnen Features (im Unterschied zur reinen Korrellation)
"Introduction to Kernel Methods" (Stephane Canu)
Sehr technisch. Am Anfang wurde eine gute Übersicht gegeben, was Kernel Methods eigentlich sind und ich weiß nun auch, welche Artikel ich lesen muss, um endlich zuverstehen, was eine SVM ist (leider wurde es in seinem Vortrag vorausgesetzt). Der Rest der Vorlesung bestand leider aus Formeln, für die mir die Voraussetzungen fehlten.
"Overcomplete Representations with Incomplete Data: Learning Bayesian Models for Sparsity" (Patrick Wolfe)
Noch technischer und noch mehr vorkenntnislastiger... . Aus diesem Vortrag habe ich wirklich nichts mitgenommen.
"Supervised and Unsupervised Learning with Energy-Based Models" (Yann LeCun)
Der zweite Vortrag, der sich mit "echter" künstlicher Intelligenz befasst hat. Es ging um das lernen von "Energieoberflächen", welche passenden Mustern eine niedrige Energie zuordnen und unpassenden eine hohe. Das alles im Rahmen von "tiefen" neuronalen Netzen und mit Backpropagation als Lernalgorithmus (es wurde auch viel zu den schwächen von Backpropagation bei tiefen neuronalen Netzen gesagt). Die Ergebnisse waren beeindruckend: Online-Gesichtserkennung, Handschrifterkennung, ein autonom fahrender Roboter. Ich denke eines meiner nächsten Projekte wird es sein, ein neuronales Netz für ein einfaches Spiel zu bauen und zu trainieren.
Gestern abend sind wir dann auf dem Strand zu einem alten deutschen Bunker gelaufen und haben in ihm ein Lagerfeuer gemacht (der Bunker war zu beiden Seiten offen, so dass der Wind hindurch konnte). Eine interessantes Erlebnis, zumal es erforderte in der Nacht über Steine und Klippen zu klettern, um den Bunker zu erreichen (zum Glück haben wir auf dem Rückweg einen Weg über den Strand gefunden: Wir wurden von einem schlimmen Regenschauer erwischt und ich hätte nicht über die nassen Steine klettern wollen). Während es nicht regnete war der (zeitweise von nur wenigen Wolken getrübte) Sternenhimmel sehr sehenswert: Kaum eine größere Stadt in der Nähe um ihn micht Licht zu verschmutzen. Ein oder zwei Fotos habe ich auch gemacht, aber sie kommen später. Sich innerhalb eines Rudels Informatiker außerhalb des vertrauten Kellers zu befinden ist immer wieder für ein paar spannende Erlebnisse gut...
Abonnieren
Kommentare zum Post (Atom)
Keine Kommentare:
Kommentar veröffentlichen