왜 AI 구축은 전통적인 소프트웨어 개발과는 완전히 다른가
처음 Every Studio에서 AI 프로젝트를 시작할 때, 저는 과거에 제품을 개발했던 방식으로 접근했습니다. 명확한 문제를 정의하고, 해결책을 구상하고, MVP(최소 기능 제품)를 개발한 뒤, 그걸 바탕으로 반복해서 개선하는 방식이죠. 빠르게 만들고, 테스트하고, 배우고, 개선하는 비교적 간단한 소프트웨어 주도 접근 방식입니다.
하지만 이 방식은 잘 맞지 않았습니다. 그래서 스스로에게 물어봤습니다. AI 구축은 전통적인 소프트웨어 개발과 무엇이 다를까?
저는 Every Studio에 합류하면서 3개월 동안 9개의 제품을 개발하겠다는 야심 찬 목표를 세웠습니다. 즉, 10일마다 하나의 프로젝트를 완성하는 것입니다. 첫 번째 프로젝트인 Mindtune은 기존의 광고 기술과 소셜 미디어 알고리즘을 대체할 AI 기반 솔루션입니다. 사람들은 소셜 미디어 피드에 등장하는 판에 박힌, 개인화되지 않은 콘텐츠에 지쳤고, AI는 더 관련성 높고 개인화된 경험을 제공할 기회를 줄 수 있다고 생각했습니다.
저는 Mindtune을 수요 검증부터 시작했습니다. 전통적인 소프트웨어 프로젝트가 실패하는 이유 중 하나가 바로 여기에서 발생하기 때문이죠. 랜딩 페이지를 만들고, 잠재 고객과 대화하고, 경쟁사를 분석한 뒤에야 제품 개발에 자원을 투자합니다. 창업자들은 오랫동안 이 템플릿을 따랐고, 그래서 이것이 일종의 반사 작용이 되었습니다. 우리는 “이걸 만드는 게 가능한가?”라는 질문을 반드시 던지지 않습니다.
하지만 AI를 다루려면 이런 습관을 깨고 다른 방식으로 접근해야 합니다. AI 제품에는 고유한 위험 요소들이 존재하며, 이를 이해하지 못하면 실수를 피할 수 없습니다.
Mindtune을 개발하면서 제가 겪고 있는 위험 요소를 세 가지로 나누어 보았고, 이를 통해 제가 감수하는 위험이 무엇인지, 그리고 그 성공 여부를 결정할 요소가 무엇인지 명확하게 이해할 수 있었습니다. 이 글에서는 각 위험 요소와 그들 간의 관계, 그리고 AI가 전통적인 스타트업의 “위험 사슬”을 어떻게 방해하는지에 대해 다룰 것입니다. 제 희망은 창업자와 개발자들이 자신들의 아이디어가 어디에서 위험에 노출되는지 더 잘 이해하고, 그 위험을 완화하는 방법을 찾을 수 있게 돕는 것입니다.
스타트업의 위험 사슬
어떤 스타트업이든 세 가지 유형의 위험이 존재합니다: 실현 가능성, 가치, 수익성.
- 실현 가능성 위험: 실제로 구축할 수 있는가? 이는 전형적인 엔지니어링 도전입니다. 예를 들어, SpaceX는 재사용 가능한 자가 착륙 로켓을 개발할 때 실현 가능성 위험에 직면했습니다.
- 가치 위험: 사용자가 실제로 가치를 얻을 수 있는가? 이는 제품-시장 적합성의 핵심입니다. Airbnb가 좋은 예인데, 처음에는 대부분의 사람들이 낯선 사람의 집에 머물고 싶어하지 않을 것이라며 터무니없는 아이디어로 여겼습니다.
- 수익성 위험: 우리의 비즈니스가 가치를 추출할 수 있는가? Facebook과 Google은 초기에 수익성 위험에 직면했습니다. 사람들은 이들의 제품을 좋아했지만, 지속 가능한 비즈니스 모델을 찾는 데는 시간이 필요했습니다.
이 세 가지 위험이 어떻게 상호작용하는지가 매우 중요합니다. 이를 하나의 사슬로 생각해 보세요: 실현 가능성 → 가치 → 수익성. 제품이 기술적으로 실현 불가능하다면, 다른 두 위험은 의미가 없습니다. 실현 가능하지만 가치가 없다면 역시 문제입니다. 그리고 사용자가 제품을 좋아하더라도, 수익을 창출할 방법을 찾아야 합니다.
이 세 가지 위험은 순차적으로 발생할 뿐만 아니라, 제품 유형에 따라 위험의 크기 역시 달라집니다.
전통적인 소프트웨어의 경우, 실현 가능성 위험이 비교적 낮습니다. 예를 들어, Facebook의 첫 번째 버전을 만드는 데는 혁신적인 기술 도약이 필요하지 않았습니다. Mark Zuckerberg는 하버드 기숙사에서 이를 코딩했습니다. 진정한 도전은 가치와 수익성 위험에 있었습니다. 사람들이 사용할 것인지, 수익성 있는 사업이 될 수 있을지 여부였죠.
반면, 유전자 치료, 핵융합로, 자동 일반 인공지능 같은 딥 테크(Deep Tech) 프로젝트는 완전히 새로운 기술을 시장에 내놓습니다. 이러한 혁신은 분명한 수요와 비즈니스 모델을 가지고 있지만(예: 기존 질병에 대한 약), 위험은 실현 가능성에 있습니다. 딥 테크 스타트업은 특정 기술이 실제로 가능할지 100% 확신할 수 없는 상태에서 도전합니다.
저는 Mindtune이 소프트웨어 제품처럼 실현 가능성 위험이 낮고, 가치와 수익성 단계에서 더 큰 도전을 맞이할 것이라고 생각했습니다. 하지만 AI는 실현 가능성과 가치 측면에서 독특한 도전을 제기하며, 새로운 접근이 필요하다는 것을 알게 되었습니다.
먼저, 위험 프로파일이 동일하지 않다는 점입니다. 저는 AI 스타트업을 두 가지 주요 범주로 나누었습니다: 딥 AI 스타트업과 적용 AI 스타트업입니다.
- 딥 AI 스타트업은 Groq의 칩이나 Figure의 인간형 로봇과 같은 기초 모델 또는 하드웨어를 구축하는 곳입니다. 여기서 가장 큰 위험은 실현 가능성입니다. 이러한 기업은 종종 최첨단 연구에 종사하며, 그들이 추구하는 돌파구가 실제로 가능할지 불확실합니다. 이는 높은 위험과 높은 보상을 수반하는 영역입니다.
- 적용 AI 스타트업은 Sparkle과 Lex처럼 OpenAI 등의 기업에서 제공하는 기존 모델과 API를 활용합니다. 여기서 주요 위험은 가치입니다. 적용 AI 기업은 AI가 비 AI 솔루션보다 더 낫고, 빠르고, 효율적으로 의미 있는 가치를 창출할 수 있음을 입증해야 합니다. 또한 AI 모델이 항상 기대한 대로 성능을 발휘하는 것은 아니기 때문에 실현 가능성 위험도 존재합니다. 좋은 결과를 얻기 위해 더 많은 고민과 세밀한 조정이 필요할 수 있습니다.
Mindtune은 적용 AI 제품입니다. 기존 AI 모델을 활용해 개인화된 소셜 미디어 피드를 제공하고자 했죠. 저는 사용자들이 새로운 소셜 미디어 경험을 반기리라는 점에서 가치가 있다고 확신했고, 기존 제품들을 통해 비즈니스 모델도 검증되었다고 생각했습니다. 그러나 더 깊이 고민할수록 중요한 단계를 놓쳤다는 걸 깨달았습니다. 바로 기술의 실현 가능성을 철저히 생각하지 않았다는 점입니다. AI 모델을 엔지니어링해서 결과를 도출할 수 있다는 것과, 일관되게 올바른 결과를 얻을 수 있다는 것은 다르다는 점을 간과했습니다. 저는 적용 AI를 구축할 때의 실현 가능성 위험을 과소평가한 것입니다.
AI의 독특한 실현 가능성 도전 과제
전통적인 소프트웨어는 근본적으로 결정론적입니다. 즉, 논리와 매개변수가 올바르게 설정되면 코드가 예측 가능한 출력을 생성합니다.
반면, 생성형 AI는 고유의 확률적 요소를 지닙니다. 결과가 항상 일관되지 않으며, 입력 데이터와 모델 자체의 미묘한 차이에 따라 출력 품질이 달라질 수 있습니다. 결과가 신뢰할 수 있고 사용자가 가치를 느낄 만큼 충분히 좋은지 확인하려면 지속적인 테스트가 필요합니다. 이 때문에 기존 엔지니어링 직관이 완전히 적용되지 않습니다.
시간이 지나면서 AI 모델이 무엇을 할 수 있고 할 수 없는지에 대한 감각이 생기지만, 전통적인 소프트웨어에서처럼 직관이 완전히 조정되지 않습니다. 경험 많은 AI 엔지니어조차 예상치 못한 결과를 마주하곤 합니다. 기술적인 실현 가능성 위험은 전통적인 소프트웨어보다 큽니다. 모델은 테스트 과정에서 긍정적이든 부정적이든 놀라움을 줄 수 있기 때문이죠. 그러나 딥 테크처럼 근본적인 과학적 돌파구가 필요한 것은 아니므로, 생성형 AI의 위험은 소프트웨어와 딥 테크 사이 어딘가에 존재합니다. 가능은 하지만 예측 불가능하죠.
이 예측 불가능성 때문에 생성형 AI와 작업할 때는 훨씬 더 실험적인 접근이 필요합니다. 전통적인 소프트웨어에서는 잘 구축된 첫 번째 버전이 약간의 수정만 필요할 때가 많습니다. 하지만 생성형 AI의 경우 첫 번째 버전이 지속적으로 “튜닝”되어야 할 수 있습니다. 프롬프트를 조정하고, 추가 데이터를 통합하며, 매개변수를 조정하여 신뢰성과 사용자 가치를 개선해야 합니다. 그리고 각 조정은 결과를 조금씩 변화시킬 수 있기 때문에 반복적인 테스트와 수정이 필수적입니다.
Mindtune을 만들 때, 저는 소프트웨어 경험—와이어프레임, 로그인 시스템 등—을 먼저 구축한 뒤 모델(GPT-4o, Claude 3.5 Sonnet, Gemini Pro 1.5, Llama 3.2)을 테스트했습니다. 개인 광고에 충분히 좋은 콘텐츠를 생성할 수 있는지를 확인하기 전이었죠. 이것은 실수였습니다. 모델의 품질을 먼저 평가했어야 했습니다. 프로젝트의 실현 가능성을 결정짓는 것은 소프트웨어가 아니라, 그 밑에 깔린 AI 모델의 품질이기 때문입니다.
이 반복적인 과정은 또한 언제 멈추거나 방향을 틀어야 할지에 대한 직관적인 감각을 요구합니다. 모델의 능력을 최대한 활용하려는 것과 한계를 인식하는 것 사이의 미묘한 균형이 필요합니다. 때로는 반복적인 조정에도 불구하고 결과의 품질이 만족스럽지 못할 때가 있으며, 이때는 포기하는 것이 좋습니다. 반면에 몇 번 더 조정하면 목표하는 결과를 얻을 수 있을 것 같은 느낌이 들 때도 있습니다.
또한, 이 단계에서의 미묘한 차이도 존재합니다. 때로는 적용 AI의 실현 가능성이 부족하다는 것이 프로젝트를 포기할 신호일 수도 있지만, 가치가 충분히 있다고 확신된다면 프로젝트를 포기하지 말고 방향을 전환해야 할 때일 수도 있습니다. 예를 들어, 적용 AI 프로젝트를 시작했다가 실은 딥 AI를 구축하고 있음을 깨닫게 될 수도 있습니다. 프로젝트를 실현 가능하게 만들기 위해 연구 모드로 전환해 자체 모델을 구축해야 할 수도 있습니다. 실현 가능성 위험은 증가하지만, 프로젝트는 더 가치 있게 되어 추구할 만한 가치가 있을 수 있습니다.
위험을 이해하고 길을 정하라
무엇을 구축하든 위험 프로파일을 이해해야 하지만, AI에서는 이것이 특히 중요합니다. 자신이 감수하고 있는 위험의 성격을 알면, 어디에 자원과 에너지를 우선적으로 투입해야 할지를 파악할 수 있습니다. 또한 각 단계에서 올바른 질문을 던질 수 있게 됩니다: “우리가 이걸 만들 수 있는가? 사람들이 사용할 것인가?” 그리고 이 두 가지 질문이 통과된 후에야 “지속 가능한 비즈니스를 구축할 수 있는가?”를 고민해야 합니다.
AI 스타트업, 특히 적용 AI든 딥 AI든, 전통적인 소프트웨어 제품보다 더 복잡한 수준에서 운영됩니다. 이들은 위험이 어떻게 상호 연결되는지에 대한 깊은 이해와 미지의 영역을 탐험하려는 의지가 필요합니다. 많은 개발자들은 생성형 AI API를 사용하면 기술적 위험이 사라진다고 착각합니다—단지 “또 하나의 래퍼”를 만드는 것이라고 생각하죠. 하지만 이는 착각입니다. 기존 모델을 사용할 때조차도 상당한 수준의 실험이 필요합니다.
이러한 기술적 위험을 과소평가하면 시간과 자원이 낭비될 수 있습니다. AI 모델이 어려운 부분을 해결했으니 시장 수요와 비즈니스 모델에만 집중하면 된다고 생각하기 쉽습니다. 하지만 실제로는 AI가 필요한 성능을 발휘하게 하는 것이 도전의 중요한 부분입니다. 신뢰할 수 있고 가치 있는 결과를 얻으려면 단순히 API를 연결하는 것 이상이 필요합니다. 지속적인 튜닝과 테스트, 모델 동작에 대한 깊은 이해가 필수적입니다. 다음 프로젝트에서는 이 부분부터 시작하려 합니다.
Comments ()