Search

Biomni Lab, 자연어로 생물학 모델 학습·파인튜닝을 실행하는 에이전트 미리보기

Phylo는 Biomni Lab의 preview 기능으로 과학자가 자연어 지시만으로 생물학 foundation model의 design, pre-training, fine-tuning을 실행하는 워크플로를 소개함. 글은 GPU orchestration, 코드 생성, 평가, 반복, 배포를 agent loop로 묶는다고 설명하지만, 성능 수치와 데모는 회사가 제시한 초기 preview 결과임.

요약

Biomni Lab은 기존 biology foundation model을 proprietary dataset, 특정 assay, species, cell type에 맞게 조정하는 병목을 줄이는 것을 목표로 함.
Finetune 모드는 full fine-tuning, LoRA, adapter 중 전략을 고르고 데이터 준비·하이퍼파라미터 조정·평가를 수행한다고 소개됨.
Pre-train 모드는 architecture design, distributed training, GPU cluster 최적화를 포함하며, Design 모드는 task description에서 문헌 조사, 후보 architecture 제안, 구현, 반복까지 수행한다고 설명됨.
회사에 따르면 Borzoi lentiMPRA fine-tuning, scGPT 기반 Arc Virtual Cell Challenge, ESM2-8M subcellular localization, ADMET용 MolMTNet 설계 등 여러 데모를 자연어 prompt에서 end-to-end로 수행함.
보고된 수치에는 scGPT perturbation prediction의 DES -0.75에서 +0.41 개선, ESM2-8M DeepLoc accuracy 12%에서 71.7% 향상, MolMTNet의 일부 TDC benchmark 상위권 접근 등이 포함됨.
GPU-as-a-tool 기능은 agent가 GPU instance를 provision하고 training script를 작성·실행·모니터링·반복하도록 설계됐으며, 코드·데이터·출력 provenance를 추적한다고 소개됨.
AI-bio 관점에서는 모델 사용보다 모델 적응과 실험-모델 closed loop가 병목이라는 문제의식이 분명함. 다만 독립 검증 전 단계라 공개 노출은 preview 성격과 회사 제공 수치라는 맥락을 함께 읽을 필요 있음.

메모

초기 preview 기능에 대한 회사 블로그이며, 성능 수치는 독립 벤치마크가 아니라 회사가 제시한 데모 결과임.

원문