Phylo는 Biomni Lab의 preview 기능으로 과학자가 자연어 지시만으로 생물학 foundation model의 design, pre-training, fine-tuning을 실행하는 워크플로를 소개함. 글은 GPU orchestration, 코드 생성, 평가, 반복, 배포를 agent loop로 묶는다고 설명하지만, 성능 수치와 데모는 회사가 제시한 초기 preview 결과임.
요약
•
Biomni Lab은 기존 biology foundation model을 proprietary dataset, 특정 assay, species, cell type에 맞게 조정하는 병목을 줄이는 것을 목표로 함.
•
Finetune 모드는 full fine-tuning, LoRA, adapter 중 전략을 고르고 데이터 준비·하이퍼파라미터 조정·평가를 수행한다고 소개됨.
•
Pre-train 모드는 architecture design, distributed training, GPU cluster 최적화를 포함하며, Design 모드는 task description에서 문헌 조사, 후보 architecture 제안, 구현, 반복까지 수행한다고 설명됨.
•
회사에 따르면 Borzoi lentiMPRA fine-tuning, scGPT 기반 Arc Virtual Cell Challenge, ESM2-8M subcellular localization, ADMET용 MolMTNet 설계 등 여러 데모를 자연어 prompt에서 end-to-end로 수행함.
•
보고된 수치에는 scGPT perturbation prediction의 DES -0.75에서 +0.41 개선, ESM2-8M DeepLoc accuracy 12%에서 71.7% 향상, MolMTNet의 일부 TDC benchmark 상위권 접근 등이 포함됨.
•
GPU-as-a-tool 기능은 agent가 GPU instance를 provision하고 training script를 작성·실행·모니터링·반복하도록 설계됐으며, 코드·데이터·출력 provenance를 추적한다고 소개됨.
•
AI-bio 관점에서는 모델 사용보다 모델 적응과 실험-모델 closed loop가 병목이라는 문제의식이 분명함. 다만 독립 검증 전 단계라 공개 노출은 preview 성격과 회사 제공 수치라는 맥락을 함께 읽을 필요 있음.
메모
초기 preview 기능에 대한 회사 블로그이며, 성능 수치는 독립 벤치마크가 아니라 회사가 제시한 데모 결과임.