Commit 8e2449ca authored by Eva Lina Fesefeldt's avatar Eva Lina Fesefeldt
Browse files

Update README.md

parent 15736618
......@@ -28,20 +28,19 @@ Ordner zu Abbildung X
Es gibt folgende Abbildungen:
- Data_Set - Visualisierung einiger Beispiele
Data_Set - Visualisierung einiger Beispiele
- Hesse-Matrix - Darstellung der Hesse-Matrix als Bild
Hesse-Matrix - Darstellung der Hesse-Matrix als Bild
- Hesse-Matrix_Eigenwerte - Plot der Eigenwerte (explizit mit eigh berechnet)
Hesse-Matrix_Eigenwerte - Plot der Eigenwerte (explizit mit eigh berechnet)
- HV_Vergleich - Vergleich von Hesse-Matrix-Vektor-Produkten mit analytischer Ableitung (falls n=1) vs. Nested Gradient Tapes vs. Forward-Over-Back-AD
HV_Vergleich - Vergleich von Hesse-Matrix-Vektor-Produkten mit analytischer Ableitung (falls n=1) vs. Nested Gradient Tapes vs. Forward-Over-Back-AD
- Lanczos-Ritz - Berechnung der Eigenwerte der Hesse-Matrix mit dem symmetrischen Lanczos-Verfahren, wobei Hv über Forward-Over-Back-AD berechnet wird und die Hesse-Matrix nicht explizit vorliegt
Lanczos-Ritz - Berechnung der Eigenwerte der Hesse-Matrix mit dem symmetrischen Lanczos-Verfahren, wobei Hv über Forward-Over-Back-AD berechnet wird und die Hesse-Matrix nicht explizit vorliegt
- Vergleich_Analytische_Ableitung - Fall n=1, Berechnung der analytischen Ableitung des KNN und Vergleich mit Nested Gradient Tapes
Vergleich_Analytische_Ableitung - Fall n=1, Berechnung der analytischen Ableitung des KNN und Vergleich mit Nested Gradient Tapes
Vergleich_Optimierer - Darstellung der Kondition der Hesse-Matrix und des Loss für verschiedene Größen der versteckten Schicht, verschiedene Optimierer (Adam, SGD mit verschiedenen Batch Sizes)
- Vergleich_Optimierer - Darstellung der Kondition der Hesse-Matrix und des Loss für verschiedene Größen der versteckten Schicht, verschiedene Optimierer (Adam, SGD mit verschiedenen Batch Sizes)
**Vergleich GD hessianlearn:** Python Skripte für das Training von Autoencodern (auf MNIST/ One Hot Encoding)
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment