绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
×
首页
直播
合辑
专场
智东西
回答成功
知道了
扫码关注智猩猩服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
登录
免费注册
关注我们
智东西
车东西
芯东西
智猩猩
智东西
车东西
芯东西
智猩猩
智猩猩
智猩猩官网
智猩猩小程序
线下大会
预告
公开课
讲座
专场
提问
|
回答
提问
分享到:
问题出自:
ChatGPT如何成为优秀的翻译质量评估器?——错误分析与思维链结合的Prompt设计
请问大模型是怎样在不改变模型参数的情况下利用上下文信息
2023-12-07 15:26:42
全部回答内容
登录之后查看
登录
这个chatGPT这一个类型的模型,它的本身的参数量已经足够大了,它的内部其实已经蕴含了这些相关的信息,那么它,我们之从头到尾强调它不改变,就是因为它内部已有的一个知识,那只不过这个知识在我们不给它p...
回答
相关问答
比如bert训练的时候是直接用无标记的纯文本得到预训练结果,那么下游任务利用prompt再去学习,这跟“微调”有啥区别? 如果不用带有prompt的下游任务去微调,bert模型应该也不知道你添加prompt是个什么意思吧?
2023-12-07 15:26:42
这个问题是这样的,因为我中间其实有一个重要的技术是没有去详细讲的。就是那个指令微调也叫做指令精调技术,这个技术其实是赋能,就是这个GPT3.5系列模型的一个很关键的一个技术,就是它可以说是他做了很多的...
阅读全文 〉
Prompt Tuning 相比于 Fine Tuning 在哪些场景下表现更好?
2023-12-07 15:26:42
我觉得问题。这个问题其实也要从几个角度去看的,因为fine tuning如果是你是针对一个模型,就是如果你是针对某一个特定任务来讲的话,这个prompt tuning和fine tuning来说。fi...
阅读全文 〉