首页 星云 工具 资源 星选 资讯 热门工具
:

PDF转图片 完全免费 小红书视频下载 无水印 抖音视频下载 无水印 数字星空

大语言模型+llama3+代码+学习可运行llama3代码

人工智能 1.49MB 64 需要积分: 1
立即下载

资源介绍:

本项目基于Meta最新发布的新一代开源大模型Llama-3开发,是Chinese-LLaMA-Alpaca开源大模型相关系列项目(一期、二期)的第三期。本项目开源了中文Llama-3基座模型和中文Llama-3-Instruct指令精调大模型。这些模型在原版Llama-3的基础上使用了大规模中文数据进行增量预训练,并且使用精选指令数据进行精调,进一步提升了中文基础语义和指令理解能力,相比二代相关模型获得了显著性能提升。 我已将如何训练+推理以及vscode配置等内容放入文件夹,你可直接下载按照要求执行,以便进一步解读与学习。当然,我也会在博客解读代码细节,以此帮助大家对大语言模型理解。
[**🇨🇳中文**](./README.md) | [**🌐English**](./README_EN.md) | [**📖文档/Docs**](https://github.com/ymcui/Chinese-LLaMA-Alpaca-3/wiki) | [**❓提问/Issues**](https://github.com/ymcui/Chinese-LLaMA-Alpaca-3/issues) | [**💬讨论/Discussions**](https://github.com/ymcui/Chinese-LLaMA-Alpaca-3/discussions) | [**⚔️竞技场/Arena**](http://llm-arena.ymcui.com/)



GitHub GitHub release (latest by date) GitHub top language

🤗 Hugging Face🤖 ModelScope🐿️ 机器之心SOTA!模型🟣 wisemodel🤗 在线Demo

本项目基于Meta最新发布的新一代开源大模型[Llama-3](https://github.com/facebookresearch/llama3)开发,是Chinese-LLaMA-Alpaca开源大模型相关系列项目([一期](https://github.com/ymcui/Chinese-LLaMA-Alpaca)、[二期](https://github.com/ymcui/Chinese-LLaMA-Alpaca-2))的第三期。本项目开源了**中文Llama-3基座模型和中文Llama-3-Instruct指令精调大模型**。这些模型在原版Llama-3的基础上使用了大规模中文数据进行增量预训练,并且使用精选指令数据进行精调,进一步提升了中文基础语义和指令理解能力,相比二代相关模型获得了显著性能提升。 #### 主要内容 - 🚀 开源Llama-3-Chinese基座模型和Llama-3-Chinese-Instruct指令模型(v1, v2, v3) - 🚀 开源了预训练脚本、指令精调脚本,用户可根据需要进一步训练或微调模型 - 🚀 开源了alpaca_zh_51k, stem_zh_instruction, ruozhiba_gpt4 (4o/4T) 指令精调数据 - 🚀 提供了利用个人电脑CPU/GPU快速在本地进行大模型量化和部署的教程 - 🚀 支持[🤗transformers](https://github.com/huggingface/transformers), [llama.cpp](https://github.com/ggerganov/llama.cpp), [text-generation-webui](https://github.com/oobabooga/text-generation-webui), [vLLM](https://github.com/vllm-project/vllm), [Ollama](https://ollama.com)等Llama-3生态 ---- [中文Mixtral大模型](https://github.com/ymcui/Chinese-Mixtral) | [中文LLaMA-2&Alpaca-2大模型](https://github.com/ymcui/Chinese-LLaMA-Alpaca-2) | [中文LLaMA&Alpaca大模型](https://github.com/ymcui/Chinese-LLaMA-Alpaca) | [多模态中文LLaMA&Alpaca大模型](https://github.com/airaria/Visual-Chinese-LLaMA-Alpaca) | [多模态VLE](https://github.com/iflytek/VLE) | [中文MiniRBT](https://github.com/iflytek/MiniRBT) | [中文LERT](https://github.com/ymcui/LERT) | [中英文PERT](https://github.com/ymcui/PERT) | [中文MacBERT](https://github.com/ymcui/MacBERT) | [中文ELECTRA](https://github.com/ymcui/Chinese-ELECTRA) | [中文XLNet](https://github.com/ymcui/Chinese-XLNet) | [中文BERT](https://github.com/ymcui/Chinese-BERT-wwm) | [知识蒸馏工具TextBrewer](https://github.com/airaria/TextBrewer) | [模型裁剪工具TextPruner](https://github.com/airaria/TextPruner) | [蒸馏裁剪一体化GRAIN](https://github.com/airaria/GRAIN) ## 新闻 **[2024/05/30] 发布Llama-3-Chinese-8B-Instruct-v3版指令模型,相比v1/v2在下游任务上获得显著提升。详情查看:[📚v3.0版本发布日志](https://github.com/ymcui/Chinese-LLaMA-Alpaca-3/releases/tag/v3.0)** [2024/05/08] 发布Llama-3-Chinese-8B-Instruct-v2版指令模型,直接采用500万条指令数据在 [Meta-Llama-3-8B-Instruct](https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct) 上进行精调。详情查看:[📚v2.0版本发布日志](https://github.com/ymcui/Chinese-LLaMA-Alpaca-3/releases/tag/v2.0) [2024/05/07] 添加预训练脚本、指令精调脚本。详情查看:[📚v1.1版本发布日志](https://github.com/ymcui/Chinese-LLaMA-Alpaca-3/releases/tag/v1.1) [2024/04/30] 发布Llama-3-Chinese-8B基座模型和Llama-3-Chinese-8B-Instruct指令模型。详情查看:[📚v1.0版本发布日志](https://github.com/ymcui/Chinese-LLaMA-Alpaca-3/releases/tag/v1.0) [2024/04/19] 🚀 正式启动Chinese-LLaMA-Alpaca-3项目 ## 内容导引 | 章节 | 描述 | | ------------------------------------- | ------------------------------------------------------------ | | [💁🏻‍♂️模型简介](#模型简介) | 简要介绍本项目相关模型的技术特点 | | [⏬模型下载](#模型下载) | 中文Llama-3大模型下载地址 | | [💻推理与部署](#推理与部署) | 介绍了如何对模型进行量化并使用个人电脑部署并体验大模型 | | [💯模型效果](#模型效果) | 介绍了模型在部分任务上的效果 | | [📝训练与精调](#训练与精调) | 介绍了如何训练和精调中文Llama-3大模型 | | [❓常见问题](#常见问题) | 一些常见问题的回复 | ## 模型简介 本项目推出了基于Meta Llama-3的中文开源大模型Llama-3-Chinese以及Llama-3-Chinese-Instruct。主要特点如下: #### 📖 使用原版Llama-3词表 - Llama-3相比其前两代显著扩充了词表大小,由32K扩充至128K,并且改为BPE词表 - 初步实验发现Llama-3词表的编码效率与我们扩充词表的[中文LLaMA-2](https://github.com/ymcui/Chinese-LLaMA-Alpaca-2)相当,效率约为中文LLaMA-2词表的95%(基于维基百科数据上的编码效率测试) - 结合我们在[中文Mixtral](https://github.com/ymcui/Chinese-Mixtral)上的相关经验及实验结论[^1],我们**并未对词表进行额外扩充** [^1]: [Cui and Yao, 2024. Rethinking LLM Language Adaptation: A Case Study on Chinese Mixtral](https://arxiv.org/abs/2403.01851) #### 🚄 长上下文长度由二代4K扩展至8K - Llama-3将原生上下文窗口长度从4K提升至8K,能够进一步处理更长的上下文信息 - 用户也可通过PI、NTK、YaRN等方法对模型进行长上下文的扩展,以支持更长文本的处理 #### ⚡ 使用分组查询注意力机制 - Llama-3采用了Llama-2中大参数量版本应用的分组查询注意力(GQA)机制,能够进一步提升模型的效率 #### 🗒 全新的指令模板 - Llama-3-Instruct采用了全新的指令模板,与Llama-2-chat不兼容,使用时应遵循官方指令模板(见[指令模板](#指令模板)) ## 模型下载 ### 模型选择指引 以下是本项目的模型对比以及建议使用场景。**如需聊天交互,请选择Instruct版。** | 对比项 | Llama-3-Chinese-8B | Llama-3-Chinese-8B-Instruct | | :-------------------- | :----------------------------------------------------: | :----------------------------------------------------------: | | 模型类型 | 基座模型 | 指令/Chat模型(类ChatGPT) | | 模型大小 | 8B | 8B | | 训练类型 | Causal-LM (CLM) | 指令精调 | | 训练方式 | LoRA + 全量emb/lm-head | LoRA + 全量emb/lm-head | | 初始化模型 | [原版Meta-Llama-3-8B](https://huggingface.co/meta-llama/Meta-Llama-3-8B) | v1: Llama-3-Chinese-8B

资源文件列表:

LLaMA3模型学习资料.zip 大约有76个文件
  1. Chinese-LLaMA-Alpaca-3-main/
  2. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/
  3. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.github/
  4. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.github/ISSUE_TEMPLATE/
  5. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.github/ISSUE_TEMPLATE/ISSUE_TEMPLATE_EN.yml 3.34KB
  6. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.github/ISSUE_TEMPLATE/ISSUE_TEMPLATE_ZH.yml 3.06KB
  7. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.github/ISSUE_TEMPLATE/config.yml 27B
  8. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.github/workflows/
  9. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.github/workflows/stale.yml 1.19KB
  10. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.gitignore 22B
  11. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.idea/
  12. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.idea/.gitignore 184B
  13. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.idea/Chinese-LLaMA-Alpaca-3-main.iml 568B
  14. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.idea/deployment.xml 1.29KB
  15. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.idea/inspectionProfiles/
  16. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.idea/inspectionProfiles/Project_Default.xml 1.16KB
  17. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.idea/inspectionProfiles/profiles_settings.xml 174B
  18. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.idea/misc.xml 271B
  19. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.idea/modules.xml 313B
  20. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.idea/workspace.xml 6.51KB
  21. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.vscode/
  22. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/.vscode/launch.json 3.32KB
  23. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/LICENSE 11.09KB
  24. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/README.md 29.53KB
  25. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/README_EN.md 32.85KB
  26. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/data/
  27. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/data/README.md 1.11KB
  28. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/data/ruozhiba_qa2449_gpt4o.json 1.55MB
  29. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/data/ruozhiba_qa2449_gpt4t.json 1.64MB
  30. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/examples/
  31. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/examples/README.md 214B
  32. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/examples/gpt-4-turbo-rating.md 10.18KB
  33. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/examples/llama3-vs-mixtral.md 23.61KB
  34. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/pics/
  35. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/pics/banner.png 241.36KB
  36. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/requirements.txt 80B
  37. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/
  38. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/ceval/
  39. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/ceval/eval.py 4.61KB
  40. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/ceval/llama_evaluator.py 9.65KB
  41. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/ceval/subject_mapping.json 5.17KB
  42. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/cmmlu/
  43. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/cmmlu/categories.py 5.94KB
  44. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/cmmlu/eval.py 5KB
  45. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/cmmlu/llama_evaluator.py 7.1KB
  46. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/inference/
  47. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/inference/inference_hf.py 9.56KB
  48. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/llama_cpp/
  49. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/llama_cpp/chat.sh 759B
  50. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/longbench/
  51. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/longbench/config/
  52. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/longbench/config/dataset2maxlen.json 459B
  53. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/longbench/config/dataset2prompt.json 5.31KB
  54. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/longbench/eval.py 3.77KB
  55. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/longbench/metrics.py 5.5KB
  56. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/longbench/pred.py 8.08KB
  57. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/merge_llama3_with_chinese_lora_low_mem.py 16.25KB
  58. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/mmlu/
  59. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/mmlu/categories.py 2.5KB
  60. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/mmlu/eval.py 5.92KB
  61. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/oai_api_demo/
  62. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/oai_api_demo/README.md 178B
  63. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/oai_api_demo/openai_api_protocol.py 2.56KB
  64. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/oai_api_demo/openai_api_server.py 13.3KB
  65. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/ollama/
  66. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/ollama/Modelfile 536B
  67. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/ollama/README.md 250B
  68. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/training/
  69. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/training/build_dataset.py 3.32KB
  70. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/training/run_clm_pt_with_peft.py 28.6KB
  71. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/training/run_clm_pt_with_peft_ori.py 28.6KB
  72. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/training/run_clm_sft_with_peft.py 17.98KB
  73. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/training/run_pt.sh 1.89KB
  74. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/training/run_pt_ori.sh 1.84KB
  75. Chinese-LLaMA-Alpaca-3-main/Chinese-LLaMA-Alpaca-3-main/scripts/training/run_sft.sh 2KB
  76. Chinese-LLaMA-Alpaca-3-main/权重下载.txt 176B
0评论
提交 加载更多评论
其他资源 NetV8,用于VFP专用版
NetV8,用于VFP专用版
Java Web的简单登录应用
使用JavaWeb简单实现登录页面并分类跳转,使普通用户可以查看自己的有关数据,管理员身份登录可以对数据进行管理。(存在问题,求大佬指导)
yolov3///////////
yolov3///////////
yolov3/////////// yolov3/////////// yolov3///////////
yolov5////////////
yolov5////////////
yolov5//////////// yolov5//////////// yolov5////////////
基于c语言封装的ftp客户端开源库
ftp
st-link驱动安装包,可以匹配USB
st-link驱动安装包,可以解决初次使用st-link时的端口无法检测到对应的端口问题,本人初次遇到该问题的时候,是在stm32c8t6最小系统板,因为其不具备烧录口,需要外接st-link,但是由于第一次使用,keil5在烧录过程总始终无法检测到,因此进行大量上网搜索才发现需要安装驱动,个人感觉也是新手小白初学时会遇到的问题,也希望能为大家提供帮助
Bz二进制编辑工具(压缩包)
Bz1621.lzh官方版是一款实用的二进制编辑器软件。Bz1621.lzh最新版具有4种编辑模式(文本、十六进制、十进制、二进制)。软件内置了两个插件(Hex Calculator 与 Base Converter)。Bz1621.lzh官方版可以对操作的语言进行自定义的选择,不对中文的语言支持。 Bz1621.lzh基本简介: Bz1621.lzh官方版是30天自制操作系统书中提到的一款二进制编辑器,不需要安装,解压缩之后打开Bz.exe就能直接使用了,目前windows所有操作系统都能运行,有需要的赶快下载吧! Bz1621.lzh功能介绍: 1、Bz1621.lzh官方版可以编辑非常大的文件,最大可高达4GB。 2、具有4种编辑模式(文本、十六进制、十进制、二进制)。 3、内置了两个插件(Hex Calculator 与 Base Converter)。 4、可快速加载文件。 Bz1621.lzh软件特色: Bz1621.lzh官方版可以对操作的语言进行自定义的选择,不对中文的语言支持。也可根据自己的使用需求来对软件内置的功能设置,可以对软件的背景颜色进行更改。
stm32f103c8+proteus8.9+温度传感器ds18b20
实验要求 使用proteus仿真+keil编译 用Proteus设计一个STM32最小系统板+温度传感器ds18b20实验原理图,仿真运行。 以STM32最小系统核心板(STM32F103C8T6)编写程序,驱动ds18b20,使用proteus8.9编写原理图。 用stm32标准库编写,有必要的注释。