宝玉xp 24-04-23 12:49
微博认证:前微软Asp.Net最有价值专家 2025微博年度新知博主 科技博主

Mistral 入门指南

Mistral 推出的开源 Mixtral 8x7B 模型采用了“专家混合”(MoE)架构。与传统的 Transformer 不同,MoE 模型内置多个专家级前馈网络(本模型为8个),在进行推理时,由一个门控网络负责选择两个专家进行工作。这样的设置让 MoE 在保持与大型模型相当的性能的同时,能够实现更快的推理速度。Mixtral 8x7B 模型共有 46.7B 参数,但在实际推理时仅激活其中的 12.9B 参数来预测下一个 Token。

在《Mistral 入门指南》课程中,由 Mistral 的 Sophia Yang, Ph.D. 主讲,你将会了解到:

- 通过 API 调用及 Mistral AI 的 Le Chat 网站,探索 Mistral 的开源模型(Mistral 7B、Mixtral 8x7B)及商业模型。
- 实施 JSON 模式来生成可直接融入大型软件系统的结构化输出。
- 学习如何使用函数调用进行工具操作,比如使用自定义 Python 代码查询表格数据。
- 将你的大语言模型(LLM)的响应与外部知识源结合,使用 RAG 技术增强实用性。
- 创建一个可以参照外部文档的 Mistral 驱动聊天界面。

本课程将助力提升你的提示工程能力。

课程链接:http://t.cn/A6TnqQye

视频1:介绍 (第一个视频发错了,补发了中英文字幕版:http://t.cn/A6Tn5wLl)
视频2: 概览
视频3:如何写提示词
视频4:如何选择合适的模型
视频5:如何使用函数调用
视频6:如何从头实现一个简单的检索增强生成(RAG)
视频7:如何实现一个简单的聊天机器人
视频8: 总结

发布于 美国