커뮤니티 스포트라이트: OpenSoundscape
OpenSoundscape는 누구나 생물음향 데이터를 분석할 수 있도록 돕는 공개 저장소입니다. 알아둘 핵심 내용을 소개합니다. 이 글은 AI 번역본입니다. 오역이 의심되면 댓글로 알려주세요.
Created on September 15|Last edited on September 15
Comment
이 글은 W&B를 도입한 커뮤니티 저장소 중에서 특히 주목할 만한 프로젝트를 소개하는 시리즈의 한 편입니다. 여러분의 저장소를 소개하고 싶다면 editor@wandb.com 으로 연락해 주세요.
💡
소개
자연 세계와 그 서식 환경의 다양한 생물을 연구하는 일을 기반으로 하는 생태학자들에게 현장에서의 데이터 수집은 일상 업무에 가깝습니다. 하지만 매 순간 모든 사소한 요소까지 기록하는 것은 사실상 불가능합니다. 어떤 관측은 오랜 시간이 걸리기도 하고, 야간 환경에서는 특히 어렵기도 합니다.
하지만 지금은 상황이 급변하고 있습니다. 지난 10년 사이 원격 탐지 기술 전반에 대한 접근성이 폭발적으로 높아졌습니다. 그중에서도 생물음향은 자연의 소리를 대규모로 기록하고 저장하는 방식에 의존합니다. 그렇다면 자연이 말하는 바를 어떻게 해독할 수 있을까요? 바로 그 물음이 이 프로젝트의 출발점입니다. OpenSoundscape, 생물음향 데이터를 분석하기 위해 만들어진 저장소입니다.

OpenSoundscape란 무엇인가?
오늘날 생물음향 연구는 한 계절에 5만 시간이 넘는 오디오를 수집하는 일일 수도 있습니다. 그 모든 데이터를 사람이 직접 검토하려면 막대한 시간과 자원이 필요합니다. 대규모 데이터에서 유용한 정보를 추출하는 과정을 자동화하기 위해 ML을 활용할 수는 있지만, 현장에서 데이터를 수집하는 많은 연구자들은 그러한 방식으로 ML을 활용하는 데 필요한 역량을 반드시 갖추고 있지는 않습니다.
여기에서 OpenSoundscape가 역할을 합니다. 이 저장소의 의도는 오디오 데이터를 가치 있는 생태학적 통찰로 변환할 수 있는 강력한 도구를 제공하는 것입니다. 이 프로젝트가 자동화하는 주요 작업에는 종 탐지, 소리의 공간적 위치 추정 등이 포함됩니다. 피츠버그 대학교 Kitzes Lab의 보전 연구원 Sam Lapp은 “OpenSoundscape의 목표는 오디오 데이터를 보유한 사용자와 ML을 통해 가능해진 최첨단 방법론 사이의 간극을 메우는 것입니다.”라고 말했습니다.
많은 오픈 소스 저장소가 그렇듯, OpenSoundscape 개발의 동기는 개인적인 필요에서 출발했습니다. “패키지, 구조, 콘텐츠의 상당 부분은 실제로 우리 연구팀의 데이터 분석 필요에서 비롯되었습니다.”라고 Sam은 말했습니다. 프로젝트가 본격화되고 팀이 이 도구가 연구에 얼마나 큰 영향을 미치는지 확인하자, 생물음향을 연구하는 다른 연구자들에게도 도움이 되리라는 확신이 들었습니다. 그때부터 OpenSoundscape는 전 세계 생태학자들을 위한 커뮤니티 도구로 자리 잡았습니다.

파나마의 하천에 배치할 자동 음향 기록 장비 준비하기
OpenSoundscape는 어떻게 작동하나요?
놀랍게도 오디오 인식 문제에 ML을 적용하는 가장 강력한 방법 중 하나는 실제로 이미지 인식을 활용하는 것입니다. 먼저 오디오를 시각적으로 표현한 스펙트로그램을 만들고, 그 스펙트로그램에 이미지 인식을 수행합니다. 스펙트로그램은 시간에 따른 주파수를 지도처럼 보여 주기 때문에 녹음 속에서 서로 다른 소리 요소와 그 배음 구조를 쉽게 구분할 수 있어, 종 분류에 매우 유용합니다.

다음 종에서 들려오는 새소리 녹음의 스펙트로그램: Eastern Towhee, Ovenbird, Black-and-white Warbler, Blue-headed Vireo — 듣기 여기
OpenSoundscape가 왜 Weights & Biases를 사용하는가?
W&B를 사용하기 전에는 Sam과 팀이 많은 ML 모델에서 블랙박스 문제에 부딪히곤 했습니다. 설명 가능성이 부족해 어떤 변경이 모델 개선에 필요한지 파악하기가 어려웠습니다. Sam은 “학습률을 조정해야 하는지, 전처리 파라미터를 바꿔야 하는지, 아니면 다른 여러 요소를 손봐야 하는지조차 알 수 없었습니다”라고 말했습니다.
W&B Tables를 사용하면 팀은 데이터셋을 손쉽게 시각화하고 조회할 수 있어, 모델이 어디에서 어려움을 겪는지 깊이 파악할 수 있습니다. 이전처럼 디버깅에 몇 시간을 쓰는 대신, 이제는 모델 성능 분석과 문제 영역 식별을 실시간으로 수행할 수 있습니다.
그뿐만 아니라 W&B는 팀이 어떤 시스템을 사용하든 모든 학습 작업을 중앙에서 관리할 수 있게 했습니다. University of Pittsburgh Center for Research Computing의 Pittsburgh Supercomputing Center Bridges2 클러스터에서 학습하든 다른 곳에서 학습하든, 모든 지표, 데이터셋, 로그, 코드, 시스템 통계가 한곳에 모여 관리되었습니다.

W&B 대시보드를 활용한 다종 새소리용 CNN 학습
OpenSoundscape의 다음 계획은 무엇일까요?
생태학자들이 자신의 데이터를 직접 분석할 수 있도록 힘을 실어 주려는 목표를 이어가기 위해, OpenSoundscape는 추가 기능 모드를 도입하려고 합니다. 서로 다른 종의 위치를 파악하는 로컬라이제이션 기능은 다음 과제 중 하나입니다. 여기서 그치지 않고, 팀은 모델 결과를 쉽게 이해할 수 있도록 더 해석 가능한 도구도 제공하고자 합니다. Sam은 “생태학처럼 새롭게 ML을 도입하는 커뮤니티의 주요 과제 중 하나는 CNN에서 나온 점수나 점수 분포가 무엇을 의미하는지 해석하는 법을 배우는 것입니다”라고 말했습니다.
OpenSoundscape에 참여하려면 어떻게 해야 하나요?
OpenSoundscape에 대해 더 알아보고 싶다면 다음을 확인해 보세요 문서직접 프로젝트를 체험해 보려면 다음으로 이동하세요 GitHub 페이지를 방문하거나 팀의 트위터를 팔로우하세요 @KitzesLab 최신 정보를 모두 확인해 보세요.
Add a comment