음치가 3분 만에 전문가급 노래를 만들 수 있다면 믿으시겠습니까? 저는 평생 노래방에서 탬버린만 잡던 사람이었습니다. 그런데 Suno라는 AI 음악 생성 플랫폼을 처음 써본 날, 여자친구 이름이 들어간 기념일 노래를 만들어 들려줬고 그날이 정말 특별해졌다는 말을 들었습니다. 창작이 더 이상 인간만의 영역이 아니라는 사실이 신기하면서도 한편으로는 두렵게 느껴졌습니다.

Suno 저작권 구조의 변화
2024년 11월 26일, Suno는 조용히 약관을 개정했습니다. 기존에는 "유료 사용자는 이 곡을 소유한다(own)"라는 표현이 명시되어 있었지만, 개정 후에는 "일반적으로 당신은 소유자로 간주되지 않습니다"라는 문구로 바뀌었습니다. 여기서 '소유권(ownership)'이란 저작물에 대한 법적 권리를 의미하며, 복제·배포·2차 창작 등을 통제할 수 있는 권한을 포함합니다(출처: 한국저작권위원회).
쉽게 말해, 이제 Suno에서 생성한 곡은 법적으로 '내 것'이라고 주장하기 어려워졌다는 뜻입니다. 다만 상업적 이용 권리는 여전히 보장된다고 명시되어 있습니다. 이는 미국 저작권청의 '인간 저작자 원칙(human authorship requirement)'과 맥락을 같이합니다. 미국 저작권청에 따르면 AI가 완전히 자율적으로 만든 결과물은 저작권 보호를 받지 못하지만, 인간의 창의적 기여가 충분히 들어간 경우 그 부분에 대해서는 저작권을 인정한다고 합니다(출처: U.S. Copyright Office).
저는 이 약관 변경이 유료 사용자 입장에서는 분명 아쉬운 부분이라고 생각합니다. 하지만 실질적으로 제가 Suno로 만든 노래를 유튜브나 스트리밍 플랫폼에 업로드하고 수익을 얻는 데는 여전히 문제가 없었습니다. 중요한 건 AI가 뱉어낸 결과물을 그대로 쓰는 게 아니라, 제가 얼마나 창의적으로 편집하고 방향을 제시했느냐입니다.
한국에서는 작곡가 '이봄'의 사례가 대표적입니다. 이봄은 AI 작곡 프로그램으로 트로트 가수 홍진영의 노래까지 만들며 저작권료를 받았지만, 창작자가 인간이 아니라는 이유로 모든 저작권료가 중단되었습니다. 이는 AI를 단순한 '뽑기 기계'로 쓸 때 생기는 리스크를 보여줍니다. 반대로 AI를 도구로 삼아 인간이 디렉팅하고 편집한다면, 그 결과물은 법적으로도 보호받을 가능성이 높습니다.
Suno 스튜디오로 전문가처럼 편집하기
Suno 4.5 버전부터 추가된 스튜디오 기능은 단순한 음악 생성을 넘어 본격적인 프로듀싱 작업을 가능하게 합니다. 여기서 '프로듀싱(producing)'이란 녹음·편곡·믹싱·마스터링 등 음악 제작 전 과정을 총괄하는 작업을 말하며, 전문 장비와 지식이 필요했던 영역입니다. 하지만 Suno 스튜디오는 이 과정을 웹 브라우저 안에서 직관적으로 처리할 수 있게 해줍니다.
저는 제 곡 작업에서 이 기능을 가장 유용하게 쓰고 있습니다. 먼저 Suno에서 기본 비트를 생성한 뒤, 스튜디오에서 스템 분리(stem separation) 기능을 실행합니다. 스템 분리란 완성된 음원에서 보컬·드럼·베이스·신디사이저 등 각 악기 트랙을 개별 파일로 추출하는 기술입니다. 이 기능을 사용하면 마음에 드는 킥 드럼만 따로 빼내거나, 어색한 백색 소음이 섞인 보컬 트랙만 삭제하는 식으로 세밀한 편집이 가능합니다.
실제 작업 과정은 이렇습니다.
- Suno에서 원하는 무드의 비트를 여러 개 생성
- 각 곡의 스템을 추출하여 마음에 드는 파트만 선택
- 스튜디오 타임라인에 끌어다 놓고 배치
- EQ(이퀄라이저)로 주파수 대역별 음량 조절
- 리버브나 딜레이 등 이펙트 추가
여기서 'EQ(Equalizer)'란 특정 음역대(주파수 대역)를 강조하거나 줄이는 장비로, 전문 믹싱 엔지니어가 사용하는 핵심 도구입니다. Suno 스튜디오에는 보컬용·웜톤용·브라이트용 등 프리셋이 준비되어 있어, 음향 지식이 없어도 바로 적용할 수 있습니다. 저는 베이스가 너무 강한 트랙에는 하이패스 필터를 걸어 저음을 정리했고, 보컬이 답답하게 들릴 때는 미드톤을 살짝 올려 명료도를 높였습니다.
2025년 초 업데이트에서는 MIDI 파일 다운로드 기능도 추가되었습니다. MIDI(Musical Instrument Digital Interface)란 음악 정보를 디지털 신호로 기록하는 표준 규격으로, 어느 음이 언제 얼마나 길게 연주되었는지 악보처럼 확인할 수 있습니다. 이 파일을 Logic Pro나 FL Studio 같은 DAW(Digital Audio Workstation, 디지털 음악 제작 소프트웨어)로 가져가면, 코드 진행을 한눈에 보거나 템포를 조정하는 등 더 전문적인 편집이 가능합니다.
프롬프팅으로 원하는 장르 정확히 뽑기
많은 사람이 Suno에 "케이팝 스타일 노래 만들어줘"라고 입력하고 실망합니다. 케이팝은 힙합·R&B·EDM·발라드 등 수십 가지 장르가 혼합된 스펙트럼이 넓은 개념이기 때문입니다. AI에게 구체적인 방향을 제시하지 않으면, 결과물은 항상 뭔가 어중간하고 트렌디하지 못합니다.
저는 프롬프팅을 할 때 반드시 ChatGPT나 Claude 같은 LLM(Large Language Model, 대규모 언어 모델)의 도움을 받습니다. 여기서 LLM이란 방대한 텍스트 데이터로 학습한 AI로, 복잡한 맥락을 이해하고 창의적인 텍스트를 생성할 수 있습니다. 이를 활용한 '메타 프롬프팅(meta prompting)' 기법이 핵심입니다. 메타 프롬프팅이란 AI에게 특정 역할(예: 비트 프로듀서)을 부여하고, 그 관점에서 더 나은 프롬프트를 작성하도록 요청하는 방식입니다.
예를 들어, 저는 NewJeans의 'How Sweet'이라는 곡을 듣고 비슷한 무드를 만들고 싶었습니다. 먼저 ChatGPT에게 "비트 프로듀서의 관점에서 이 곡의 장르, BPM, 사용된 악기를 분석해줘"라고 요청했습니다. 돌아온 답변은 다음과 같았습니다.
- 장르: UK Garage, Minimalistic Electronic Pop
- BPM: 약 130
- 주요 악기: 단타성 하이햇, 싱코페이션 리듬의 킥, 딥 서브베이스
- 분위기: 언더그라운드 클럽 사운드, 공간감 있는 보컬 처리
이 정보를 바탕으로 Suno 프롬프트를 구성했습니다. "Minimalistic UK Garage, 130 BPM, punchy hi-hats with syncopated kick, deep sub-bass, spacious vocal reverb, underground club vibe." 이렇게 구체적으로 입력하자 원하던 느낌에 훨씬 가까운 결과물이 나왔습니다.
또한 저는 항상 장르 개념을 먼저 공부합니다. AI로 돈을 벌고 싶은 사람과, 실력을 키우고 싶은 사람의 차이는 바로 여기에 있습니다. 단순히 프롬프트만 복사 붙여넣기 하는 건 Suno 기능의 10%도 활용하지 못하는 겁니다. 제가 UK Garage가 무엇인지, 싱코페이션이 어떤 리듬 패턴인지 이해하고 나서야 프롬프트에 의미를 담을 수 있었습니다.
Suno V5 업데이트에서는 보이스 페르소나(Voice Persona) 기능이 개선되었습니다. 페르소나란 특정 가수의 목소리 톤과 스타일을 학습시켜, 다른 장르에도 일관되게 적용할 수 있는 기능입니다. 이전에는 발라드 가수 페르소나로 힙합 곡을 만들면 발라드 스타일까지 따라왔지만, 이제는 목소리만 분리해서 가져올 수 있습니다. 저는 제가 만든 허스키한 목소리의 힙합 곡에서 15~35초 구간만 잘라 페르소나로 저장했고, 이 목소리로 인디팝·R&B·트로트까지 다양한 장르를 시도해봤습니다. 마치 한 앨범을 같은 가수가 부르는 것처럼 일관성이 생겼습니다.
음치였던 제가 이제는 두쫀쿠 스타일의 가벼운 노래부터, 여자친구 기념일 맞춤 곡까지 자유롭게 만듭니다. AI가 창작 영역을 침범한다는 두려움도 있지만, 결국 살아남는 건 AI를 잘 다루면서도 자기만의 정체성을 지키는 사람일 겁니다. Suno는 단순한 장난감이 아니라, 제대로 배우면 누구나 프로듀서가 될 수 있는 도구입니다. 여러분도 프롬프팅 공부와 스튜디오 기능 활용을 병행한다면, 2,000자가 넘는 이 글보다 훨씬 많은 걸 직접 경험으로 배우게 될 겁니다.