Products
GG网络技术分享 2026-04-16 12:15 0
说实话,怎么从零开始搞一个AI项目落地?这简直是每个开发者和企业在迈向智能化时都会面临的那个让人睡不着觉的核心问题。真的,别看外面吹得天花乱坠,真上手了全是坑。我在搞这个《人工智能项目落地实战指南》专栏的时候, 真的是一边掉头发一边梳理,大模型技术在市场应用中无非就那三大方向,但是根据AI运用的深浅程度,这里面水可深了去了,啊这...。
摆烂。 咱们今天不整那些虚头巴脑的理论, 什么Transformer架构、BERT原理,那些东西留给大学教授去写论文吧。我们要的是实战!是能跑起来的代码!是能解决问题的东西!不过话说回来虽然理论先不展开,但有些基础概念还是得唠叨两句,不然大家连我在说什么都不知道。

多模态学习, 听着挺高大上,说白了就是训练模型从多个模态的数据中学习,并且能够跨模态进行推理和理解。这玩意儿让MMLMs在许多应用场景中具有显著优势,比如图像字幕生成、视频理解、机器人交互等。举个例子,一个多模态模型可以学习图像和文本之间的关系,从而实现图像字幕生成或者图像问答等任务。这听起来是不是很酷?但做起来真的很痛苦!
至于长上下文多模态场景的大模型应用, 虽然我们把它归为“浅水区”方向,但它的复杂度介于两者之间:比智能客服复杂,但又不如深水区需要极高的策略设计能力。这就像是在浅水区里摸石头,水不深,但是石头滑啊!通过丰富的实战案例和可复用的最佳实践, 我希望为开发者提供清晰的操作指引,帮助大家更AI项目落地。这些数据都是供应商十分关注重视的核心数据,具有较大可行性的运用场景,欧了!。
多模态大模型更好地理解复杂场景,提供更智能、更人性化的服务。因为人工智能技术的飞速发展,多模态大模型逐渐成为研究热点。 我晕... 当前,多模态大模型的研究正迅速发展,各大科技公司和学术机构都多模态大模型应运而生。
咱们直接上干货,别整那些没用的。先说说你得有个环境,对吧?装最新版OpenAI SDK是必须的, 一针见血。 虽然我们可能用的是阿里云的通义千问,但是SDK嘛,通用的最好用。
代码语言:javascript
pip3 install -U openai
装好了之后咱们就开始初始化。这里有个坑,大家注意了base_url一定要填对, KTV你。 不然连都连不上。我之前就主要原因是少写了一个路径,调试了半天差点把电脑砸了。
import os
from pathlib import Path
from openai import OpenAI
client = OpenAI(
api_key=,
base_url="https:///compatible-mode/v1",
)
file_object = , purpose="file-extract")
print
看到那个`purpose="file-extract"`了吗?这可是关键!文件的用途,有batch、file-extract、batch_output三种取值。别搞混了搞混了接口就报错,报错信息还看不懂,那才叫一个绝望。
这里我必须得吐槽一下那个`fileid`的生成机制,有时候真的很慢。上传之后这个文件就在你的百炼Client里面了通过这个文件ID就可以查询到这个文件的具体信息。 动手。 比如下面这段代码, 就是去查文件信息的:
file =
print)
或者你也可以用另一种方式,看你怎么顺手了:
file_object =
print)
运行能返回文件ID就算成功,这时候你心里的大石头才能落地一半。返回的数据结构大概是这样的, 大家看看,一堆字段,眼花缭乱:
{
"data": ,
"object": "list",
"has_more": false
}
咱们来详细说说这个文件上传。需要使用上传文件接口获取file_id,通过purpose参数指定上传文件的用途。可以上传Batch任务的单个文件最大为500 MB; KTV你。 当前阿里云账号下可以上传的最大文件数为10000个, 上传文件的总量不超过100 GB,文件暂时没有有效期。在选择文档上传方式时 请考虑以下因素:
脑子呢? 其中参数可选两种file-extract和batch:
file-extract: 用于qwen-long模型的文档理解;batch: 用于Batch任务,file格式必须满足输入文件格式。若文件的个数或存储空间达到上限,可以通过删除文件接口删除指定file_id的文件。可通过查询文件信息接口获取指定文件信息,或通过查询文件列表接口查询所有文件信息。查询文件列表接口会返回所有文件的信息,包括通过上传文件接口上传的文件,以及batch任务的后来啊文件。
PUA。 这里有个表格, 大家看一眼,别搞混了这些字段的含义,我可是踩过坑的:
| 字段 | 类型 | 描述 | 示例值 |
|---|---|---|---|
| id | string | 文件标识符。 | "file-fe-123" |
| object | string | 对象类型,始终为 file。 | "file" |
| bytes | integer | 文件大小,单位为字节。 | 123456 |
| created_at | integer | 文件创建时的 Unix 时间戳。 | 1617981067 |
| filename | string | 文件名。 | "example.pdf" |
| purpose | string | 文件的用途, 有batch、file-extract、batch_output三种取值。 | "batch" |
为了深入展示长上下文多模态大模型在实际场景中的应用潜力, 我们以招标文档解读作为示例,探索如何利用大模型高效解析长篇复杂文档并提取核心信息。在招投标领域, 要我说... 文档信息繁杂,内容涉及多个维度,包括项目基本信息、投标要求、评标办法等。这些数据都是供应商十分关注重视的核心数据,具有较大可行性的运用场景。
在各地的省政府采购中心里面均可获取到相关的采购信息公告,通常来说公告里面的附件都带有具体的招标文件。在招投标活动中,招标文档通常包括项目的详细描述、投标资格要求、评标办法以及合同条款等内容。这些文档不仅篇幅长,而且结构复杂,包含多种信息形式。手动解读这些文档既耗时又容易遗漏关键信息, 特别是在以下情况下:,说到底。
先说说明确智能体的目标是从招标文件中提取关键信息,并且通过合理的结构组织这些信息。 哭笑不得。 任务的具体内容分为几个模块,智能体需要。智能体需要从招标文件中提取以下内容:
综合Prompt 示例:
请仔细阅读招标文件, 提取以下关键信息:
- 招标项目的基本信息
- 投标要求
- 评标办法
- 合同条款
- 答疑安排及澄清信息
- 识别并列出常见的格式问题、业绩要求标准等潜在问题
每个模块的任务可以分解为多个子任务:
挖野菜。 1. 招标项目基本信息包括项目名称、编号、招标人、代理机构、开标时间、地点等。
2. 投标要求包括资格条件、 投标文件格式与内容要求,主要关注投标人资格要求、格式要求等内容。可以设计以下几个子任务:,坦白讲...
躺平... 3. 评标办法评标办法是招标文件中的一个重要部分,智能体需要提取:
4. 合同条款在合同条款部分, 重点是付款方式、质量要求、验收标准和工期要求。
5. 答疑安排及澄清信息涉及答疑的安排、答疑方式及澄清信息的发布渠道等。
我可是吃过亏的。 通过 Qwen-long 模型解析后可以实现的主要效果及其实际应用价值比较好作设想。模型可以基于上传的文档进行回复, 比如:
completion = (
model="qwen-long",
messages=,
stream=True
)
或者不使用流式输出,看你的需求了:
completion = (
model="qwen-long",
messages=,
)
print
如果业务需要输出结构化数据,可以的字符串符合标准的JSON格式。在调用时 设置response_form 栓Q! at为{"type": "json_object"}并通过系统消息或用户消息指引模型输出JSON格式即可。
completion = (
model="qwen-plus",
messages=,
response_format={
"type": "json_object"
}
)
print
这样你就能拿到一个规规矩矩的JSON,不用担心模型突然给你来一句诗或者讲个笑话。结构化数据对于后续的入库处理太重要了不然你还得自己去清洗数据,那又是无休止的加班,观感极佳。。
别纠结... 要将代码设计成多轮对话格式,你可以通过将每轮对话的消息逐步添加到 messages 列表中,并在每轮对话中加入适当的角色标识。每次与模型交互时 你将回应追加到消息列表中。
# 初始化对话历史
messages =
# 模拟多轮对话
def chat_conversation:
while True:
# 获取用户输入
user_input = input
if user_ == "退出":
print
break
# 将用户输入添加到消息列表中
# 调用模型进行对话
completion = (
model="qwen-long",
messages=messages, # 传递所有历史消息
stream=False # 非流式输出
)
# 获取模型完整响应
full_content = .
print
# 获取 tokens 使用情况
prompt_tokens = _tokens
completion_tokens = _tokens
total_tokens = prompt_tokens + completion_tokens
# 打印每轮的 tokens 数量
print
# 将模型回应添加到消息列表中,保持对话状态
# 启动对话
chat_conversation
这里要注意tokens的消耗,长上下文多模态场景下tokens烧得比钱还快!使用腾讯混元hunyuan-large-longcontext大模型也一样, 本次就先不使用hunyuan-large-longcontext了先把阿里云给的tokens用完。 要我说... 通常来说此类长文最大支持 10,000,000 tokens,包括问答历史和上传文档的总 tokens。也支持通过文件服务上传文档获取 fileid,或直接在 system message 中输入文档内容。
等着瞧。 再说说咱们聊聊参数。这俩参数temperature和top_p真的是玄学。这两个参数都用于控制模型生成文本的多样性。temperature 或 top_p 越高,生成的文本更多样,反之生成的文本更确定。
如果你在做招标文件解读这种严肃的事情, 建议把temperature调低点,别让模型给你整出什么花活儿来。但如果你在做创意写作,那就调高点,让它放飞自我。
CharGLM 作为支持 24k 的多模态对话模型,在角色扮演场景中展现出强大的交互能力。人工智能Gemini 2.5 Pro技术解析与应用:多模态模型使用指南及提示词优化实战。 准确地说... 这些模型各有千秋,选哪个真的看你的业务场景和钱包厚度。
太治愈了。 为了方便大家选择, 我随便搞了个对比表,别太当真,仅供参考:
| 模型名称 | 上下文长度 | 多模态支持 | 适用场景 | 吐槽点 |
|---|---|---|---|---|
| Qwen-Long | 1000万 tokens | 文档、图片 | 长文档解析、财报分析 | 文件上传有时候慢 |
| CharGLM | 24k | 文本、图像 | 角色扮演、对话 | 上下文有点短 |
| Gemini 2.5 Pro | 超长 | 全模态 | 复杂推理、视频理解 | 访问门槛高 |
| Hunyuan-Large | 长 | 文本、图像 | 企业级应用 | API文档有时候更新慢 |
长上下文技术旨在使模型能够处理和理解超长文本序列。传统的自然语言处理模型通常方法, 模型的,使其能够在处理如长篇文章、技术文档或代码库时保持对全局信息的理解和连贯性,踩个点。。
操作一波... 本文将以Qwen-long为例,详细展示如何在长上下文多模态场景中发挥大模型的潜力。通过 Qwen-long 的 API 功能和集成策略, 结合实际开发过程中的经验分享,您将学会如何设计、开发并部署一套高效的长上下文多模态解决方案。如果您对 AI 技术的实际应用感兴趣,欢迎订阅本专栏,免费获取更多实战内容。
求锤得锤。 自 2022 年开始, 我已在人工智能应用开发领域深耕四年,亲身经历了技术从概念到落地、从实验室到生产环境的全流程。这一专栏的初衷是聚焦人工智能技术的实际应用,涵盖从需求分析、模型选择、开发部署到效果评估的完整环节。通过丰富的实战案例和可复用的最佳实践, 我希望为开发者提供清晰的操作指引,帮助大家更 AI 项目落地。
过多理论就先不展开讲解了 要 这部分内容可以拿出来的东西太多了把我们的主要注意力放到实践运用上面这里笔者一笔带过。在长文本中结合图片、表格等多模态数据的具体实现,才是我们真正要关心的,对吧?。
URL:http:///bsfw/cgxx/cgxxgg/content/post_
多模态大模型:技术原理与实战 —— OpenAI一鸣惊人带来的启示。OpenAI发布的多模态大模型 通义千问 (通义千问:... 哎呀, 得了吧... 名字都搞混了不管了反正都差不多。
关键词:多模态大模型,技术原理,实战,对比,Transformer,BERT,视觉语言模型,跨模态融合,深度学习.所以呢,如何有效地融合多种模态信息,,成为当前人工智能领域的一个重要研究方向.,好吧好吧...
说白了就是... AI原生应用开发实战:基于增量学习的模型优化策略.AI原生应用性能优化:上下文理解的内存管理技巧.
如有纰漏之处, 请留言指教,非常感谢!
Demand feedback