
Ein Tokenizer (auch: lexikalischer Scanner, kurz Lexer) ist ein Computerprogramm zur Zerlegung von Plain text (zum Beispiel Quellcode) in Folgen von logisch zusammengehörigen Einheiten, so genannte Token (engl. tokens). Als solcher ist er oft Teil eines Compilers. == Grundlagen == Bei der Zerlegung einer Eingabe in eine Folge von logisch zusammen...
Gefunden auf
https://de.wikipedia.org/wiki/Tokenizer
Keine exakte Übereinkunft gefunden.