Qwen3.5原生视觉语言系列Flash模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,实现了更高的推理效率。模型效果在纯文本与多模态方面相较3系列均实现飞跃式进步;响应速度快,兼具推理速度和性能。
1M 컨텍스트 윈도우
64K 최대 출력 토큰
출시일: 2026-02-23
지원 프로토콜:openaianthropic
제공업체:Aliyun
기능:비전Function Calling추론프롬프트 캐싱영상 입력
요금
| 유형 | 요금 |
|---|---|
| 입력 토큰 | $0.1/M |
| 출력 토큰 | $0.4/M |
| 캐시 읽기 | $0.01/M |
| 캐시 쓰기 | $0.125/M |
| 웹 검색 | $0.01/R |
코드 예제
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.5-flash",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
관련 모델
자주 묻는 질문
Qwen: Qwen3.5 Flash은(는) Ofox.ai에서 입력 $0.1/M/백만 토큰, 출력 $0.4/M/백만 토큰입니다. 종량제, 월정액 없음.
Qwen: Qwen3.5 Flash은(는) 1M 토큰의 컨텍스트 윈도우와 최대 64K 토큰 출력을 지원하여, 대용량 문서 처리와 장기 대화가 가능합니다.
base URL을 https://api.ofox.ai/v1로 설정하고 Ofox API Key를 사용하면 됩니다. OpenAI 호환 API — 기존 코드에서 base URL과 API Key만 변경하면 됩니다.
Qwen: Qwen3.5 Flash은(는) 비전, Function Calling, 추론, 프롬프트 캐싱, 영상 입력 기능을 지원합니다. Ofox.ai 통합 API로 모든 기능에 접근하세요.