【以下的问题经过翻译处理】 当我尝试使用以下pip命令将Hugging Face BERT模型导入到我的Amazon SageMaker笔记本实例的conda_pytorch_p36内核中时,内核总是会崩溃:!pip install transformers在ml.c5.2xlarge和ml.c5d.4xlarge Amazon SageMaker实例上,使用Hugging Face BERT,RoBERTa和GPT2模型的结果是相同的。为什么会出现这种情况,我该如何解决这个问题?
!pip install transformers
【以下的回答经过翻译处理】 当最新的句子片段出现问题时,会出现此问题。解决方法是强制安装 sentencepiece==0.1.91 版本。
您未登录。 登录 发布回答。
一个好的回答可以清楚地解答问题和提供建设性反馈,并能促进提问者的职业发展。