关于 ChatGPT 的信息整理

模型应该多大?#

ChatGPT 是一个大模型,根据这篇文章的结论:https://yaofu.notion.site/514f4e63918749398a1a8a4c660e0d5b

突现能力只存在于大模型中,

模型至少需要62B,使思维链的效果才能大于标准的提示词方法。#

模型至少需要175B(GPT3的尺寸),思维链的效果才能大于精调小模型(T5 11B)的效果。#

一些开源的模型#

LMFlow#

项目地址:https://github.com/OptimalScale/LMFlow

港科大开源项目,介绍文章:https://juejin.cn/post/7219847645732536377

LLaMA#

Facebook的开源模型,最大65B,填写一个调查表,等待审核通过就可以下载了。

https://github.com/facebookresearch/llama

其它各类模型#

https://mp.weixin.qq.com/s/25pWlpaRBj4NpGpAaWeQ8w

名词#

RLHF#

ChatGPT 是在 GPT-3.5 基础上进行微调得到的,微调时使用了从人类反馈中进行强化学习的方法(Reinforcement Learning from Human Feedback,RLHF) 。 这里的人类反馈其实就是人工标注数据,来不断微调 LLM,主要目的是 让LLM学会理解人类的命令指令的含义 (比如文生成类问题、知识回答类问题、头脑风暴类问题等不同类型的命令), 以及让LLM学会判断对于给定的prompt输入指令(用户的问题) ,什么样的答案输出是优质的 (富含信息、内容丰富、对用户有帮助、无害、不包含歧视信息等多种标准)。

comments powered by Disqus