文章
15
标签
8
分类
0
首页
归档
标签
分类
音乐
电影
留言板
友链
关于
Relativity suis's Blog
Yorushika
首页
归档
标签
分类
音乐
电影
留言板
友链
关于
Yorushika
发表于
2024-12-31
|
更新于
2025-01-01
|
浏览量:
年度歌单!
suis is all you need🥰
文章作者:
Relativity suis
文章链接:
http://example.com/2024/12/31/Yorushika/
版权声明:
本博客所有文章除特别声明外,均采用
CC BY-NC-SA 4.0
许可协议。转载请注明来源
Relativity suis's Blog
!
music
上一篇
Learning Prompt
Learning Prompt🥰参考链接:https://datawhalechina.github.io/llm-cookbook/ 提示原则设计高效 Prompt 的两个关键原则:编写清晰、具体的指令和让模型思考 编写清晰、具体的指令🤓在使用 LLM 解决较为复杂的问题时,我们通常需要 清晰而具体 地表达我们的需求,我们需要把意图、背景等讲得很明确,最好不要有歧义或者有缺漏。 面对提示词(Prompt)中可能的部分信息缺失的情况,LLM 可能会自己假设一些情况或者忽略 / 简化一些情况,导致其输出并不能满足我们的期望 因此,在提供 Prompt 的时候,我们也要以足够详细和容易理解的方式,把需求与上下文说清楚。所以也并不是说 Prompt 就必须非常短小简洁;事实上,在许多情况下,更长、更复杂的 Prompt 反而会让 LLM 更容易抓住关键点,给出符合预期的回复,原因在于,复杂的 Prompt 提供了更丰富的上下文和细节,让模型可以更准确地把握所需的操作和响应方式。 使用分隔符清晰化输入的不同部分分隔符就像是 Prompt...
下一篇
Language Model Overview
关于 Language Model 的综述报告1. 语言模型语言模型(Language Model, LM)是用于建模自然语言的概率模型,简单来说,其任务就是评估一个给定的词序列(即一个句子)在真实世界中出现的概率,或者说,对于任意的词序列,这个模型能够计算出这个序列是一句话的概率。 给定一个词表 $V$,LM 应当能计算出任意单词序列 $w_1, w_2, …, w_n$ 是一句话的概率 p(w_1, w_2, ..., w_n)而该公式也可以写成 \begin{align} p(w_1, w_2, ..., w_n) &= p(w_1) \cdot p(w_2|w_1) \cdot p(w_3|w_1,w_2) ... p(w_n|w_2,...,w_{n-1}) \\ &= p(w_1) \prod_{i=2}^{n} p(w_i|w_1, ..., w_{i-1}) \end{align}如果模型能够有效地计算每一个 p(w_i|w_1, ...,...
Relativity suis
文章
15
标签
8
分类
0
Github
公告
Blog 积极更新中!
目录
1.
年度歌单!
最新文章
emnlp2024论文研读-参数高效稀疏化
2025-01-14
学习 Transformer 的初始化、参数化与标准化
2025-01-09
LoRA 及其论文研读
2025-01-08
MoE 论文研读
2025-01-08
Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer 论文研读
2025-01-07
簡