Токенизация (tokenization, lexical analysis, графематический анализ, лексический анализ) - это когда в тексте выделяются слова, числа, и другие токены. Например, нахождение границ предложений.
Код ссылки скопирован в буфер
Если у Вас есть сайт или блог, разместите, пожалуйста, нашу ссылку: