2025년에 주의해야 할 일반적인 생성형 AI 함정 4가지

Kristina Behr
Vice President, Product Management, Google Workspace
* 본 아티클의 원문은 2025년 02월 14일 Google Cloud 블로그(영문)에 게재되었습니다.
2025년을 맞이하며 각계각층의 조직은 생성형 AI를 활용하고자 앞다투어 뛰어들고 있습니다. 하지만 다른 모든 신기술과 마찬가지로 생성형 AI에는 신중한 배포, 도입을 가속할 챔피언 문화, 잠재력을 최대한 발휘하기 위한 리더십 지원이 필요합니다. 조직 전반에 대한 적절한 지원 없이 생성형 AI를 도입하려고 하면 좌절과 생산성 저하로 이어질 수 있습니다.
새로운 한 해 동안 AI 계획을 순조롭게 실현할 수 있도록 주의해야 할 일반적인 함정 4가지를 소개합니다.
1. 강력한 AI 문화의 중요성 과소평가
AI 도입은 첫 단계에 불과합니다. AI 도입에 대한 적절한 접근 방식 없이는 원하는 이점을 실현할 수 없습니다.
성공적인 통합을 위해 모두 함께 노력하고 있다고 느끼는 AI 문화를 조성하는 것이 중요합니다. 팀과 함께 AI를 가장 유용하게 활용할 영역과 방법을 결정하고, 효과적인 영역과 세부 조정이 필요한 영역에 대한 의견을 수렴하세요.
실무적인 참여는 여기에서 끝나지 않습니다. 효과적인 결과를 기대할 수 있는 생성형 AI 환경을 구축하려면 실험과 공동 학습이 필수입니다. 숙련된 사용자가 귀중한 노하우를 공유할 수 있도록 지원하세요. 팀이 AI를 능숙하게 사용하기까지는 시간이 걸릴 수 있지만 서로 지원하는 문화가 조성된다면 AI 숙련자가 되는 데 보탬이 될 기본 기술을 개발할 수 있습니다.
2. AI 워크플로에서 인간 전문가 없애기
신입 인턴이 아무리 똑똑하더라도 인턴에게 비즈니스 전략을 맡길 사람은 없습니다. 점차 중요한 업무를 맡기더라도 관리자의 확인은 필요합니다. 생성형 AI도 마찬가지입니다. 기술을 최대한 활용하려면 실제 인간 전문가가 그 결과를 검증해야 합니다.
아무리 다재다능한 생성형 AI라도 모든 것을 수행할 수는 없습니다. 비즈니스가 나아갈 방향과 같은 복잡한 의사결정에는 적절한 데이터가 모두 제공되었더라도 아직 AI가 갖추지 못한 심층적인 지식, 추론, 경험이 필요합니다.
기술이 발전하는 과정에서 오류가 발생할 수 있으며 이에 따라 AI 답변에 잘못된 정보가 포함될 가능성도 있습니다. 따라서 아직은 사실 확인 및 품질 관리를 위해 생성형 AI의 출력을 다시 한번 확인하는 것이 비즈니스의 기준을 굽히지 않고 기술의 생산성 향상 잠재력을 활용할 가장 좋은 방법입니다.
3. 보안 위험 무시
생성형 AI 제품에 조직 정보에 대한 액세스 권한을 허용하면 응답의 관련성을 높이는 데 도움이 될 수 있습니다. 그러나 보안이 적용되지 않은 제품에 민감한 정보를 공유하면 중요한 데이터가 잘못된 사람에게 넘어갈 위험이 있습니다.
생성형 AI 데이터 프로토콜을 확립하지 않으면 어떤 정보를 비공개로 유지해야 하는지 파악하기가 어려워지고 조직은 데이터 유출에 더욱 취약해집니다. 데이터 저장 및 공유에 대한 규정은 특정 비즈니스가 생성형 AI를 사용하는 방법에도 영향을 미칠 수 있습니다.
생성형 AI 도구를 통합하기 전에 AI의 액세스를 제한할 데이터와 생성형 AI 도구가 정보를 사용하는 방식에 대해 충분히 고려해야 합니다. 기술 및 보안 이해관계자와 함께 팀을 안정적으로 이끌고 조직과 팀을 안전하게 보호할 수 있는 명확하고 종합적인 정책을 만드세요. Google Workspace with Gemini가 조직의 데이터를 비공개로 안전하게 유지하는 방법을 자세히 알아보세요.


Google Workspace with Gemini가 개인 정보를 보호하면서 타겟팅된 생성형 AI 대답을 제공하는 방법
4. 적절한 맥락 없는 프롬프트 작성
프롬프트에 기반한 잘못된 응답은 생성형 AI의 신규 사용자에게 어려움을 안기고 심지어 사용자가 기술을 아예 사용하지 않는 상황을 초래할 수도 있습니다. 많은 생성형 AI 도구는 대화형 접근 방식을 기반으로 빌드되었지만 효과적인 프롬프트를 작성하는 기술은 학습을 통해 습득할 수 있습니다.
사람과 마찬가지로 생성형 AI 모델은 적절한 수준의 정보가 있을 때 더 나은 출력을 제공할 수 있습니다. 하지만 도움이 될 정보나 정보를 포함할 최적의 방법이 항상 명확한 것은 아닙니다. 가장 효과적인 프롬프트에는 페르소나, 작업, 맥락, 형식이 포함됩니다. 모든 프롬프트에 이 4가지가 전부 필요한 것은 아니지만 많은 맥락을 포함할수록 관련성이 더 높은 AI 응답을 얻을 수 있습니다.
특히 효과적인 프롬프트를 다른 팀과 공유하면 프롬프트 작성에 소요되는 시간을 아끼는 데도 도움이 됩니다. 요청 사항을 기억하며 공유할 수 있는 Gemini만의 '맞춤 버전'인 Gems를 만들면 반복적인 프롬프트 작성을 줄이는 데 도움이 되며 정보에 입각한 AI의 이점을 실현할 수 있습니다.


Gems를 이용하여 니즈에 맞는 생성형 AI 에이전트를 찾거나 만들 수 있습니다.
2025년에 성공적인 AI 여정을 위한 계획
Kristina Behr, Google Workspace 제품 관리 부문 부사장
조직에 생성형 AI를 도입하는 일이 막막하게 여겨질 수 있지만 생성형 AI는 업무 방식을 혁신할 잠재력을 품고 있습니다. 신중하게 배포하고 지원을 아끼지 않는 리더십과 협업 문화를 갖추면 갈등을 최소화하면서 팀이 무슨 일이든 자신감 있게 대처할 준비가 된 생성형 AI 사용자로 성장하도록 지원할 수 있습니다.