ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently imported

今天在搭建MinGPT-4环境的时候出现了这个错误,查了一下,好像是配置里的名字大小写错了,尝试把`llama-13b-hf\tokenizer_config.json`里面的`LLaMATokenizer`替换成`LlamaTokenizer`即可解决,之后的版本应该会修复这个错误。



本文发布于 https://luojia.me

本站文章未经文下加注授权不得拷贝发布。

0 0 投票数
打分
订阅评论
提醒
guest
0 评论
内联反馈
查看所有评论