當前位置: 妍妍網 > 碼農

5.6K star! 來自全球開源大模型排行榜第一的國產計畫,太酷了!

2024-06-27碼農

* 戳上方藍字「 開源先鋒 」關註我

大家好,我是開源君!

在人工智慧領域,大型語言模型一直是研究的熱點,也是各大廠商競相發力的領域。

阿裏作為全球知名的互聯網大廠,最近可謂是國產大模型「最靚的仔」。

就在今天淩晨,阿裏開源的Qwen-2 72B力壓科技、社交巨頭Meta的Llama-3、法國著名大模型平台Mistralai的Mixtral等強大對手,登頂全球最權威的開源模型測評榜單Open LLM Leaderboard。

HuggingFace聯合創始人兼CEO Clem發文表示:「Qwen2是王者,中國在全球開源大模型領域處於領導地位。」

Qwen-2開源地址:
https://huggingface.co/Qwen/Qwen2-72B-Instruct

https://github.com/QwenLM/Qwen2

早在本月7日,阿裏雲通義千問推出全球效能最強的開源模型Qwen2-72B,效能超過美國最強的開源模型Llama3-70B,兩小時後即沖上HuggingFace 開源大模型榜單首位。

今天是他們本月第二次發榜,Qwen2-72B還是第一。

現在誰還敢說,國產大模型很水的?

計畫簡介

Qwen2 由阿裏雲的 Qwen 團隊開發,是一個包含多個尺寸模型的系列,其中包括 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B(MoE模型),以及 Qwen2-72B。這些模型在 Hugging Face 和 ModelScope 上均有提供,支持多語言處理,並且在效能上有著顯著的提升,特別是在程式碼處理、數學計算等方面。

和同級別的大模型相比,Qwen2-72B模型的效果都表現很優秀,尤其在程式碼、數學、中文尤為明顯,

效能特色

Qwen2 的效能特色在於其對多語言的支持和上下文長度的處理能力。

除了英文和中文,Qwen2 還支持其他 27 種語言,這得益於其訓練數據中加入了多種語言的高品質數據。

所有模型均穩定支持32K長度上下文,而Qwen2-72B-Instruct 型號能夠處理高達 128k tokens 的上下文長度,這使得它在處理長文本資訊抽取任務時更為出色。

快速安裝體驗

想要快速體驗 Qwen2 的能力,可以透過 Hugging Face 的 Transformers 庫來實作。官方建議使用Python3.8及以上版本和Pytorch 2.0及以上版本。

#Pip安裝
pip install transformers -U
#Conda安裝
conda install conda-forge::transformers
#從源碼安裝
pip install git+https://github.com/huggingface/transformers

以下是一個使用 Qwen2-72B-Instruct 模型的簡單範例:

from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen2-72B-Instruct"
device = "cuda"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Give me a short introduction to large language models."
messages = [
{"role""system""content""You are a helpful assistant."},
{"role""user""content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)


我們也可以透過官方在 Hugging Face 上的 Demo 來直接感受 Qwen2 ,可以直接與模型進行互動,提出問題並獲取答案,體驗 Qwen2 的多語言能力和上下文理解能力。

Qwen2 作為一個國產開源的大型語言模型計畫,它不僅在技術上有許多創新,而且在實際套用中表現出色。模型多,功能強大,表現優秀效果好,為我們提供了又一個強大的提效工具。隨著技術的不斷進步,有理由相信 Qwen2 將在 AI 領域扮演越來越重要的角色。

盡管 OpenAI 近日宣布將終止對我們提供 API 服務,但看到 Qwen2 等國產大模型的後來追上,真的有種滿滿的幸福感。

希望阿裏能更上一層樓,釋出更多高效能的開源大模型,造福全世界!

Qwen-2開源地址:
https://huggingface.co/Qwen/Qwen2-72B-Instruct

https://github.com/QwenLM/Qwen2