【AI开源大模型】GLM-130B:开放的中英双语预训练模型

在这里插入图片描述
文章来源地址https://www.uudwc.com/A/vmW6O/

文章目录

  • GLM-130B:开放的中英双语预训练模型
    • 摘要:何为 GLM-130B?
    • 快速上手
      • 环境配置
      • 自回归文本生成 / 中间文本填空
        • Example 1
        • Example 2 (Chinese)
        • Example 1
        • Example 2 (Chinese)
      • 评估
      • 使用 FasterTransformer 加速推理速度(高达 2.5 倍)
    • 何为GLM-130B?
      • 架构
        • 1. 训练目标:自回归文本填空
        • 2. 位置编码:旋转位置编码

原文地址:https://blog.csdn.net/universsky2015/article/details/131346333

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请联系站长进行投诉反馈,一经查实,立即删除!

上一篇 2023年10月08日 02:45
LLMs:LangChain-Chatchat(一款可实现本地知识库问答应用)的简介(支持ChatGLM-2/LLaMA-2等多款主流LLMs)、安装、使用方法之详细攻略
下一篇 2023年10月08日 04:15