我想在一个Flask应用程序中执行文本生成任务,并将其托管在Web服务器上,但是当下载GPT模型时,弹性豆茎管理的EC2实例会崩溃,因为下载需要太多的时间和内存
from transformers.tokenization_openai import OpenAIGPTTokenizerfrom transformers.modeling_tf_openai import TFOpenAIGPTLMHeadModelmodel = TFOpenAIGPTLMHeadModel.from_pretrained("openai-gpt")tokenizer = OpenAIGPTTokenizer.from_pretrained("openai-gpt")
这些是引起问题的代码行。GPT模型大约是445 MB。我使用的是transformers库。我在想是否可以将模型进行序列化(pickle),然后作为代码库的一部分打包。这是可能的吗?如果不行,我该如何预加载这个模型来避免我遇到的问题?
回答:
方法1:
在这里搜索模型: https://huggingface.co/models
从以下链接下载模型:
pytorch模型: https://s3.amazonaws.com/models.huggingface.co/bert/openai-gpt-pytorch_model.bin
tensorflow模型: https://s3.amazonaws.com/models.huggingface.co/bert/openai-gpt-tf_model.h5
配置文件: https://s3.amazonaws.com/models.huggingface.co/bert/openai-gpt-config.json
来源: https://huggingface.co/transformers/_modules/transformers/configuration_openai.html#OpenAIGPTConfig
你可以手动下载模型(在你的情况下是TensorFlow模型 .h5 和 config.json 文件),将其放入代码库中的一个文件夹中(比如说 model
)。(如果需要,你可以尝试压缩模型,然后在EC2实例中解压)
然后,你可以直接从路径加载模型到你的Web服务器中 而不是下载(model
文件夹中包含 .h5
和 config.json
):
model = TFOpenAIGPTLMHeadModel.from_pretrained("model") # model文件夹包含.h5和config.jsontokenizer = OpenAIGPTTokenizer.from_pretrained("openai-gpt") # 这是一个轻量级的下载
方法2:
不使用链接下载,你可以使用常规方法在本地机器上下载模型。
from transformers.tokenization_openai import OpenAIGPTTokenizerfrom transformers.modeling_tf_openai import TFOpenAIGPTLMHeadModelmodel = TFOpenAIGPTLMHeadModel.from_pretrained("openai-gpt")tokenizer = OpenAIGPTTokenizer.from_pretrained("openai-gpt")
这会下载模型。现在你可以使用 save_pretrained
函数将权重保存到一个文件夹中。
model.save_pretrained('/content/') # 保存到content文件夹中
现在,content文件夹应该包含一个 .h5 文件和一个 config.json 文件。
只需将它们上传到代码库并从中加载即可。