解锁 1年EdgeOne + 1TB CDN: 加入我们的开发者之旅
立即开始!
边缘 AI
概述
EdgeOne 将 AI 服务部署至全球边缘节点,为开发者提供低延迟、高性能、零运维的 AI 推理能力。这一功能旨在解决传统云端 AI 服务面临的延迟高、成本高等问题,让 Pages 用户能够更便捷地在其应用中集成 AI 功能,提升用户体验并降低开发和运维成本。
目前,我们已在全球边缘节点部署了 DeepSeek R1 模型,使 Pages 项目能够快速接入和使用 AI 能力。所有用户均可免费体验该服务,您只需通过简单的 API 调用即可在网站中集成智能对话功能。
核心优势
即开即用的模型服务
预置优化版 Deepseek-R1 模型
从 Pages Functions 直接调用 AI 模型
无需处理模型部署、版本管理等运维工作
低延迟响应保障
请求自动路由至最近边缘节点
支持流式传输(streaming)降低首字延迟
内置连接复用与传输优化
无缝集成开发体验
与 EdgeOne Pages 项目无缝集成
自动继承域名与 HTTPS 配置
提供标准化 API 调用模板
接入流程
1. 在 Pages 控制台点击“创建项目”
2. 选择“DeepSeek-R1 for Edge”模板进行部署
3. 将仓库克隆至本地,在项目的边缘函数中,以下示例代码即为调用 AI 模型的核心模块
// 在边缘函数中(示例路径:/functions/v1/chat/completions/index.js)export async function onRequestPost({ request }) {// 解析用户输入const { content } = await request.json();try {// 调用边缘 AI 服务const response = await AI.chatCompletions({model: '@tx/deepseek-ai/deepseek-r1-distill-qwen-32b',messages: [{ role: 'user', content }],stream: true, // 启用流式输出});// 返回流式响应return new Response(response, {headers: {'Content-Type': 'text/event-stream','Cache-Control': 'no-cache','Connection': 'keep-alive','Access-Control-Allow-Origin': '*','Access-Control-Allow-Methods': 'POST, OPTIONS','Access-Control-Allow-Headers': 'Content-Type, Authorization',}});} catch (error) {return new Response(JSON.stringify({error: 'AI_SERVICE_ERROR',message: error.message}), { status: 503 });}}
注意事项
当前有 API 调用频率限制,请合理控制请求速度
建议实现错误处理机制,提高应用稳定性
禁止用于生成违法内容、高频自动化请求等场景
当前为限时免费 Beta 服务,正式商用时间另行通知