新闻AI Translated Content
AI 训练营:LLM 微调与部署
Float16 团队
5 min read
2025年7月4日星期五,Float16 与 Typhoon SCB 10X 团队合作,在 FYI 大厦 DistrictX 举办了 AI 训练营:LLM 微调与部署。此次活动标志着推动泰国 AI 技术发展的重要里程碑。训练营受到了热烈的关注,并成功完成,超出了预期。
活动概览
AI 训练营是一个全天的实践培训计划,旨在让参与者从基本理解到使用工具和 GPU 通过微调和部署过程实际应用大型语言模型(LLM)。
亮点

🔧 上午场:如何微调 Typhoon 开源 LLM
演讲者: Surapon Nonesung,SCB10x 研究科学家
👉 来自 Typhoon 团队的关键要点:获得高性能模型的微调 5 个技巧
- 在数据准备上花费超过 80% 的时间(因为数据质量是好模型的基础)
 - 至少创建 2 个评估数据集,其中至少 1 个数据集包含从未训练过的数据
 - 在微调期间使用训练集和评估集以检查过拟合
 - 在微调前后评估模型,看看模型是否真的有所改进
 - 检查并调整使用的聊天模板,例如系统提示、指令格式等。好的模板可以帮助模型更准确地回答并表现得更好
 

🚀 下午场:如何在 Float16 ServerlessGPU 上部署您微调的 Typhoon 模型
演讲者: Matichon Maneegard,Float16 创始人
👉 来自 Float16 团队的关键要点:改进 LLM 用于实际软件开发的 3 个技巧
- 根据您的目的选择正确的 LLM 文件格式:
.safetensors→ 用于 HuggingFace,单独的模型权重、分词器、架构文件.gguf→ 用于 llama-cpp、Ollama、LM-studio - 易于使用- 根据任务选择格式:
- 用于微调的 safetensors
 - 用于推理的 gguf
 
 
 - 实现 OpenAI API 兼容性:
- 使现有代码无需重写即可工作
 - 将端点从 OpenAI 更改为使用我们自己的模型
 - 节省成本并拥有完全控制权
 
 - 结构化输出(Grammar)改进响应质量:
- 使用 xgrammar、outlines、guidance 来控制响应格式
 - JSON 模式用于准确的函数调用
 - 为 SQL、选项选择或特定格式定义语法规则
 
 
出色的反馈
从活动后的评估来看,我们收到了超出预期的反馈:
💬 一些令人印象深刻的评论
"我对整体活动印象深刻。能够向实际在该领域工作的人学习真是太好了。" - 参与者
"SCB10X 和 Float16 团队在提供知识方面非常细心。管理非常出色。来自 Float16 的 Matichon 组织的讲座和研讨会形式非常好。" - 参与者
"我真的很喜欢这个活动。特别是活动进行得多么顺利和精简。" - 参与者
参与者获得了什么
🎯 实践知识
- 微调和部署 LLM 的实践经验
 - 使用 Typhoon 开源模型
 - 改进 LLM 用于软件开发工作的技巧
 
💰 福利
- 100% 免费
 - 来自 Float16 的价值 1,000 泰铢的 GPU 积分
 - 数字证书
 - 免费午餐
 
🤝 网络
与以下人员会面并交流经验:
- 教授、学生、研究人员和数据科学家
 - 工程师和开发人员
 - 创业公司创始人和企业家
 

我们感谢所有参与活动的人,包括:
- SCB 10X 和 NVIDIA 团队的全力支持
 - DistrictX 提供场地
 - 所有提供反馈和好主意的参与者
 
Float16 致力于成为推动泰国成为区域 AI 领导者的一部分。这次活动只是建立强大且可持续的 AI 从业者社区的开始。
#AIBootcamp #LLMFinetuning #Float16 #SCB10X #NVIDIA #MachineLearning #AIThailand #Typhoon
