NLP
Word Embedding
Ein Word Embedding ist eine Technik im NLP, bei der Wörter als Vektoren (Listen von Zahlen) dargestellt werden. Wörter mit ähnlicher Bedeutung haben ähnliche Vektoren und liegen im Vektorraum nah beieinander. Dies ermöglicht es Computern, mit der Bedeutung von Wörtern zu rechnen (z.B. König - Mann + Frau = Königin).