diff --git a/README.md b/README.md index 26763b3c5..41ff9c026 100644 --- a/README.md +++ b/README.md @@ -199,6 +199,10 @@ print(response) > By default, LMDeploy downloads model from HuggingFace. If you would like to use models from ModelScope, please install ModelScope by `pip install modelscope` and set the environment variable: > > `export LMDEPLOY_USE_MODELSCOPE=True` +> +> If you would like to use models from openMind Hub, please install openMind Hub by `pip install openmind_hub` and set the environment variable: +> +> `export LMDEPLOY_USE_OPENMIND_HUB=True` For more information about inference pipeline, please refer to [here](docs/en/llm/pipeline.md). diff --git a/README_ja.md b/README_ja.md index 9a7419e7b..ea4480e28 100644 --- a/README_ja.md +++ b/README_ja.md @@ -197,6 +197,10 @@ print(response) > デフォルトでは、LMDeployはHuggingFaceからモデルをダウンロードします。ModelScopeからモデルを使用する場合は、`pip install modelscope`コマンドでModelScopeをインストールし、環境変数を設定してください: > > `export LMDEPLOY_USE_MODELSCOPE=True` +> +> openMind Hubからモデルを使用する場合は、`pip install openmind_hub`コマンドでopenMind Hubをインストールし、環境変数を設定してください: +> +> `export LMDEPLOY_USE_OPENMIND_HUB=True` 推論パイプラインに関する詳細情報は[こちら](./docs/en/llm/pipeline.md)を参照してください。 diff --git a/README_zh-CN.md b/README_zh-CN.md index 4b9f85c73..cdddb64a2 100644 --- a/README_zh-CN.md +++ b/README_zh-CN.md @@ -199,6 +199,10 @@ print(response) > LMDeploy 默认从 HuggingFace 上面下载模型,如果要从 ModelScope 上面下载模型,请通过命令 `pip install modelscope` 安装ModelScope,并设置环境变量: > > `export LMDEPLOY_USE_MODELSCOPE=True` +> +> 如果要从 openMind Hub 上面下载模型,请通过命令 `pip install openmind_hub` 安装openMind Hub,并设置环境变量: +> +> `export LMDEPLOY_USE_OPENMIND_HUB=True` 关于 pipeline 的更多推理参数说明,请参考[这里](docs/zh_cn/llm/pipeline.md) diff --git a/lmdeploy/utils.py b/lmdeploy/utils.py index 599af1590..a540b7391 100644 --- a/lmdeploy/utils.py +++ b/lmdeploy/utils.py @@ -186,7 +186,7 @@ def get_model(pretrained_model_name_or_path: str, download_dir: str = None, revision: str = None, token: str = None): - """Get model from huggingface or modelscope.""" + """Get model from huggingface, modelscope or openmind_hub.""" import os if os.getenv('LMDEPLOY_USE_MODELSCOPE', 'False').lower() == 'true': from modelscope import snapshot_download