AR 眼镜刚问“对面是哪栋楼”,后台的 MLLM-SC 框架在 10 ms 内就给出一张“语义注意力热图”:楼体轮廓被标成深红,优先级拉到最高,其余背景统一降低码率。高维的多模态数据不再平均分配资源,和任务相关的像素、语音、坐标被语义引擎挑出来走“快速通道”,无关内容自动降级,6G 空口立刻多出约 30 % 可用带宽。
这套“设备—边缘”协作方案把多模态大模型部署在边缘服务器。用户提交图像 + 语音 + 任务请求后,提示工程配合上下文学习先拆解意图,再驱动双路径语义编码器——关键特征走高质量通道,次要信息进低分辨率通路;就算信道突发衰落,核心区域仍能以 1080 P 保真传输。接收端先用 VAE 做粗重建,再用条件扩散模型细化修复,并可按终端算力在“高清重建”和“AI 补帧”之间动态切换,弱网下也能实时合成高质量全息画面。
实验室测试中,AR 导航、沉浸式会议、车联网三维地图同时负载在 500 MHz 毫米波小区上运行:引入 MLLM-SC 后,平均端到端时延由 28 ms 降至 18 ms,块错误率降低 42 %。团队下一步计划把强化学习并入语义决策,让多智能体在协同驾驶、城市级元宇宙等复杂场景中“边传边学、边通边优”,力争把 6G 的“体验密度”再提升一个数量级。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?