在spaCy中,可以使用nlp模型中的tokenizer对文本进行分词。以下是一个使用spaCy进行文本分词的示例代码:
import spacy # 加载spaCy的英文模型 nlp = spacy.load("en_core_web_sm") # 要处理的文本 text = "This is a sentence for tokenization." # 对文本进行分词 doc = nlp(text) # 打印每个词的分词结果 for token in doc: print(token.text)
在这个示例中,首先加载了spaCy的英文模型,然后使用该模型对文本进行分词,最后打印出每个词的分词结果。