1 minute read

exp_d 진입 모델셋업. Qwen3.5-Omni-Light 후보 검색 결과 release 미확인, 6모델 확정. skel 단계 진입.


1. Qwen3.5-Omni-Light 검색 결과

설계 문서 §2 미확정 후보였던 Qwen3.5-Omni-Light 추가 검토.

검색 결과 (2026/05/01)

소스 결과
HF API Qwen3.5-Omni 검색 공식 Qwen 조직 모델 0건 (전부 community fine-tunes/merges)
huggingface.co/Qwen/Qwen3.5-Omni-Light 직접 401 (페이지 부재)
WaveSpeedAI 기사 “Light is the open-weight tier” 표기. 그러나 실제 release 미확인
공식 블로그/arXiv 2604.15804 파라미터 수 공개 안 됨 (“haven’t been fully confirmed”)
API ID qwen3.5-omni-light DashScope API 제공. open-weight 아님 가능성 높음

결론

6모델 확정. exp_d 진입 모델셋업:

# 모델 크기 비고
1 HCX-SEED-Omni ~7B 한국어 anchor (영어 약화 검증)
2 Qwen2.5-Omni ~7B exp_a baseline 유지
3 MiniCPM-o 2.6 ~8B exp_a baseline 유지
4 MiniCPM-o 4.5 9B 신 (2026/02)
5 Gemma 3n E4B-it ~4.5B effective Google trimodal
6 Phi-4-multimodal 5.6B MS, 영어 강

설계 문서 §2 제외 항목·§9 다음 단계·§10 변경 이력 갱신 완료 (exp-d-design 3차 갱신).


2. 다음 단계

  1. experiments/exp_d/ skel 생성: exp_a fork (7파일, ~858 LOC base):
    • data.py: 6 벤치마크(MMLU/MMLU-Pro/ARC-C/OBQA/TruthfulQA/CSQA) 다운로드 + sample_pool 빌드
    • common.py: 영어 INSTRUCTION + 가변 option parse_answer
    • render.py: 텍스트 → PNG (exp_a 재사용)
    • generate_audio.py: gTTS 영어
    • parallel_runner.py: 모델별 실행 (exp_a fork + batch_size 4-8 처리)
    • runner.py: 단일 모델 entry
    • adapters/: 기존 hcx.py / qwen.py / minicpm.py + 신규 3종 (minicpm_45.py / gemma3n_e4b.py / phi4_multimodal.py)
  2. 6벤치 sample_pool 빌드 (~29,584 sample, random.seed(42))
  3. 신규 3 어댑터 weights 다운로드 (~38GB)
  4. smoke 108 inference (1샘플 × 6모델 × 3 variant × 6벤치)
  5. 본 실험 ~532k inference (batch_size 4-8 → ~1.5-3일). GPU 안정성 처방 적용 후 진입
  6. 결과 정리 → log-20

2026/05/02 작성. exp_d 모델셋업 확정 + skel 코드 단계 진입.