Tokenisierung Bedeutung

Suchen

Tokenisierung

Tokenisierung Logo #42000 Tokenisierung bezeichnet in der Computerlinguistik die Segmentierung eines Textes in Einheiten der Wortebene (manchmal auch Sätze, Absätze o. Ä.). Die Tokenisierung des Textes ist Voraussetzung für dessen Weiterverarbeitung, beispielsweise zur syntaktischen Analyse durch Parser, im Textmining oder Information Retrieval. In der Informatik bezei...
Gefunden auf https://de.wikipedia.org/wiki/Tokenisierung
Keine exakte Übereinkunft gefunden.