编辑
2025-05-11
技术杂谈
00
请注意,本文编写于 87 天前,最后修改于 87 天前,其中某些信息可能已经过时。

目录

PreAlign: Boosting Cross-Lingual Transfer by Early Establishment of Multilingual Alignment
Multilingual LLMs are Better Cross-lingual In-context Learners with Alignment

PreAlign: Boosting Cross-Lingual Transfer by Early Establishment of Multilingual Alignment

  • 为了解决多语言大模型对齐问题,前面的工作常常是在预训练中或者预训练后注入对齐信息,这使得预训练早期的知识不能很好的共享
  • 本文提出PreAlign, 在预训练前就注入多语言对齐信息。
  • 数据准备:通过GPT-4翻译多语言数据信息。
  • 初始化:通过对比学习使得模型对于对齐的单词产生相似的encoding, 获取Encoder架构的每一层表示(如果一个单词会被tokenize到多个subword,取平均)
  • 为了保证初始化的结果对于语言模型不太差,再加了一个5%的Language modeling loss.
  • 训练过程中:为了保证对齐不被遗忘,再在训练过程中对于输入加了一个codeswitching(部分替换为另一个语言)
  • 评估方法:合成了一种语言ENCLONE, 对于English的每个词的embedding加上60000变成另一个语言,保证语言逻辑、架构相同,仅仅评估对齐效果。从目标语言语言能力本身、zero-shot模型跨语言能力(在源语言上微调并在目标语言评估)、跨语言知识能力。

Multilingual LLMs are Better Cross-lingual In-context Learners with Alignment

  • https://aclanthology.org/2023.acl-long.346.pdf

  • 主要在In-Context Learning时改善对齐问题。

  • 解决问题:为了解决从高资源语言的上下文中解决低资源语言问题时的不足。

  • 采取方法:主要采取了两个方法:语义对齐和任务对齐。

  • 语义对齐:在随机Sample时,选取相似语义的例子。

  • Example: 任务:跨语言情感分类(英语->西班牙语)

    测试输入(西班牙语):"no me llego el articulo me lo mando por correos normal sin seguimiento y nunca me llego tota un desastre"(快递没到,很糟糕)

    随机选择法的示例可能是:

    Review: "The color is great!" Rating: good Review: "It works as expected." Rating: good

    语义对齐法的示例会是:

    Review: "It never came in the mail I never got it and they charge me" Rating: bad Review: "I never received this product and it never came in the mail. It was never delivered to my address" Rating: bad

    可以看出,后者与目标评论描述的“没收到货”高度相关,模型能更好地推断其情感。

  • 任务对齐:在示例最后加上一个人工的statement,明确教会模型目标语言标签和源语言标签的对应关系,防止标签空间的割裂。

In Española, bad means malo and good means bueno.
  • 通过对比实验:如只告诉语言信息、全部使用源语言标签进行预测、错误的标签对齐、使用第三方语言进行对齐、自动生成statement发现其具有一定效果。
  • 更多像是prompt engineering.