Das Skript ist noch nicht ganz fertig - bitte verwenden Sie als Grundlage Manning/Schütze, S. 294ff
Gegeben ist folgende Kookkurenz-Matrix
Wort/Kontext | umkreisen | entdecken | Durchmesser | leuchten | lachen |
Herschel | 0 | 5 | 0 | 0 | 15 |
Jupiter | 5 | 0 | 4 | 11 | 0 |
Saturn | 3 | 0 | 5 | 12 | 0 |
Uranus | 4 | 2 | 4 | 10 | 0 |
a) Berechnen Sie die bedingte Wahrscheinlichkeit für jedes Kontextwort (umkreisen, entdecken etc.), gegeben die zu klassifizierende Wörter (Herschel, Jupiter etc.). Nehmen Sie an, dass alle Wörter im Kontext aufgelistet sind - d.h. die Wahrscheinlichkeiten sollen sich zu 1 aufsummieren.
b) Erstellen sie für jedes zu klassifizierende Wort einen binären Vektor und einen Vektor, der die bedingten Wahrscheinlichkeiten enthält (sie können die Vektoren wieder in der Form der Matrix darstellen).
Berechnen Sie die beiden ähnlichsten Wörter aufgrund folgender Distanzmaße:
c) (Fortgeschrittene): Berechnen Sie den normalisierten Vektor (Vektor der Länge 1) für Jupiter.