Tokenizer Bedeutung

Suchen

Tokenizer

Tokenizer Logo #42000 Ein Tokenizer (auch: lexikalischer Scanner, kurz Lexer) ist ein Computerprogramm zur Zerlegung von Plain text (zum Beispiel Quellcode) in Folgen von logisch zusammengehörigen Einheiten, so genannte Token (engl. tokens). Als solcher ist er oft Teil eines Compilers. == Grundlagen == Bei der Zerlegung einer Eingabe in eine Folge von logisch zusammen...
Gefunden auf https://de.wikipedia.org/wiki/Tokenizer
Keine exakte Übereinkunft gefunden.