本文共 1109 字,大约阅读时间需要 3 分钟。
大模型的创建现在有了新的方法,这种方法可以类比于炼金术中的巫师法则。
Medusa 为 LLM 添加了额外的"头",用于同时预测多个未来代币。在使用 Medusa 增强模型时,原始模型保持不变,只有新增的头部在训练过程中进行微调。在生成过程中,这些头每个都会为相应位置生成多个可能的单词。通过基于树的注意力机制,处理并组合这些选项。最终,采用典型的接受方案,从候选者中挑选最长的合理前缀以进行进一步解码。
MergeKit 是一个用于合并预训练语言模型的工具包,支持多种合并方法,包括 TIES、线性和 slerp 方法。此外,该工具包还可以从其他模型中选择特定的层来分段组装语言模型 bakllama.py。
要使用脚本合并模型 main.py,需指定最终模型的输出目录以及要使用的 --merge 选项合并的模型。根据所选的合并方法,可能需要额外参数,如 --density、--weight 和 --base-model。
支持以下合并方法:
示例命令:
python main.py ./output-model --cuda --merge garage-bAInd/Platypus2-13B --weight 0.3 --density 0.5 \--merge WizardLM/WizardLM-13B-V1.2 --weight 0.5 --density 0.5
bakllama.py 脚本允许从其他预训练模型中获取特定层来分段组建模型。使用 YAML 配置文件定义要从各源模型获取的层,并可选指定嵌入和 LM 头组件的源。
配置文件需包含以下字段:
layer_slices
:图层切片对象列表,每个对象指定要从源模型获取的层范围。embedding_source
:可选字段,指定嵌入层的模型,默认为 layer_slices
中的第一个模型。lm_head_source
:可选字段,指定 LM 头的模型,默认为 layer_slices
中的最后一个模型。使用命令运行脚本:
python bakllama.py path/to/your/config.yml ./output-model-directory
转载地址:http://jnrfk.baihongyu.com/