AI의 제한된 이점 및 코드 품질 문제
진행자들은 AI가 특정 언어의 미묘한 뉘앙스를 파악하거나 검색 요약을 제공하는 등 제한적인 상황에서 유용할 수 있음을 인정합니다. 그러나 코드 생성에 있어서는 AI의 한계가 명확하다고 주장합니다. AI는 주로 기존 데이터를 기반으로 확률적으로 예측하기 때문에, 생성된 코드는 ‘평균적인’ 수준에 머무르며 혁신적인 해결책을 제시하기 어렵다는 것입니다. 이는 개발자가 추구하는 ‘평균 이상’의 고품질 코드 작성 목표와 상충됩니다.
-
평균 이하의 코드 학습: AI는 Stack Overflow와 같이 문제 해결을 위한 질문과 답변이 많은 공개 코드를 학습하므로, 본질적으로 결함이 있거나 최적화되지 않은 코드를 학습할 가능성이 높습니다.
-
이해 부족과 유지보수 어려움: AI가 생성한 코드는 종종 이해하기 어렵고, 이를 확장하거나 수정하기 위해 다시 AI에 의존하는 악순환이 발생할 수 있습니다. 이는 장기적으로 프로젝트의 유지보수 비용을 증가시키고, ‘아무도 건드리고 싶어 하지 않는’ 코드베이스를 만들 위험이 있습니다.
-
맹목적인 신뢰: 사람들은 AI가 생성한 코드에 대해 동료 개발자의 코드보다 더 맹목적인 신뢰를 보내는 경향이 있어, 잠재적인 문제점을 간과하기 쉽습니다.
AI 기술의 윤리적 및 사회적 문제
진행자들은 AI 기술이 가져오는 광범위한 윤리적, 사회적 문제에 대해 강하게 비판합니다. 특히 데이터 센터 건설과 관련된 환경 및 사회 불평등 문제를 강조합니다.
-
환경 파괴 및 자원 고갈: AI 데이터 센터는 막대한 양의 전력과 물을 소비하며, 이는 종종 자원이 부족하고 소외된 지역에 건설되어 해당 지역 주민들의 전기 요금 상승 및 물 부족 문제를 야기합니다.
-
저작권 침해: AI 모델 학습을 위해 저작권자의 허락 없이 책을 토렌트하는 등 불법적인 방식으로 데이터를 수집하는 관행은 AI 산업의 근본적인 윤리 문제를 드러냅니다. 진행자들은 이러한 행위가 법과 민주주의 위에 군림하려는 시도라고 비판합니다.
-
‘인간 문제’ 해결 실패: AI는 ‘사람들이 코드를 더 빨리 작성하는 것’과 같은 자본주의적 이득을 위한 문제를 해결할 뿐, 실제 인류가 직면한 고통이나 사회적 불평등과 같은 본질적인 ‘인간 문제’를 해결하지 못한다고 지적합니다.
개발자 만족도와 산업의 미래
AI의 확산은 개발자의 직업적 만족도와 소프트웨어 산업의 혁신에도 부정적인 영향을 미칠 수 있습니다. 진행자들은 ‘창작의 즐거움’과 ‘문제 해결의 만족감’이 개발자에게 중요한 가치라고 강조합니다.
-
만족도 저하: AI가 코드를 대신 작성함으로써 개발자가 문제 해결 과정에서 얻는 만족감과 성취감이 크게 줄어들 수 있습니다.
-
산업 침체 위험: AI에 과도하게 의존하게 되면, 개발자들이 새로운 도구를 만들거나 혁신적인 해결책을 모색하려는 동기가 약해져 소프트웨어 산업 전체의 침체로 이어질 수 있습니다.
-
‘Inshitification’ 가속화: Corey Doctorow가 주창한 ‘Inshitification’(점점 더 나빠지는 현상)이라는 개념을 인용하며, AI가 소프트웨어의 전반적인 품질을 저하시키고 ‘예전처럼 만들지 않는’ 시대로 이끌 수 있다고 우려합니다.