Neuronale Informationsverarbeitung

Deep Networks

Tiefe neuronale Netze sind sehr erfolgreich in vielen Anwendungsbereichen. Dennoch ist es bisher unklar, warum sie so erfolgreich sind, denn gerade der Erfolg von überparametrisierten neuronalen Netzwerken widerspricht den Erkenntnissen der statistischen Lerntheorie. Mithilfe von der Analyse der Repräsentation versuchen wir neue Erkenntnisse zu gewinnen. Wir sind interessiert an folgenden Fragestellungen.

  • Sind (visuelle) Aufgabenstellungen (tasks) „verwandt“ und können wir ihre „Nähe“ quantifizieren?
  • Inwieweit verhalten sich Datensatz (Eingabe) und „task demand“ (Eingabe-Ausgabe Statistik) zueinander und tragen zur Problemstellung bei? 
  • Können wir diesen Zusammenhand effizient erkennen und bestimmen? 
  • Hilft das Konzept von intermediären Repräsentation? 
  • Gibt es universelle Repräsentation für (visuelle) Daten, welche eine effiziente Lösungen für viele „alltägliche“ Aufgabenstellung sein können? 

Aktuell treffen wir uns jeden Donnerstag um 14 Uhr, um diese Fragen zu diskutieren und neue Erkenntnisse zu gewinnen. Bei Interesse meldet euch gerne an deep.networks(at)ni.tu-berlin.de.