옵션
뉴스
AI 윤리를 무시하는 것은 큰 위험을 초래합니다 : AI를 책임감있게 구현하는 방법

AI 윤리를 무시하는 것은 큰 위험을 초래합니다 : AI를 책임감있게 구현하는 방법

2025년 4월 22일
139

1945년 7월, MH Hasham Premji는 인도 마하라슈트라 주의 작은 마을 아말너에서 Western India Vegetable Products Limited를 시작하며 테크 거인의 기초를 닦았다. 보리 강 옆에 자리 잡은 이 회사는 처음에는 식용유 생산에 주력했다. 1970년대에 접어들며 사업은 극적으로 변모하여 IT로 초점을 옮기고 Wipro로 리브랜딩했다. 오늘날 Wipro는 인도의 대표적인 테크 기업 중 하나로, 167개국에서 운영되며 약 25만 명의 직원을 고용하고 100억 달러 이상의 매출을 창출한다. 그 중심에는 창립자의 손자인 Rishad Premji가 있다.

Kiran Minnasandram, Wipro FullStride Cloud의 부사장 겸 CTO 이미지: Wipro

현재 Wipro는 IT 혁신, 컨설팅, 비즈니스 프로세스 서비스의 글로벌 리더로 자리 잡고 있다. ZDNET과의 독점 인터뷰에서, 우리는 Wipro FullStride Cloud의 부사장 겸 CTO인 Kiran Minnasandram과 함께 회사의 최신 활동과 IT의 미래를 깊이 탐구할 기회를 가졌다.

Kiran은 Wipro의 기술 혁신의 최전선에 있으며, 최첨단 솔루션을 개발하는 이니셔티브를 주도한다. 그의 주요 초점은 혁신을 주도하고 최신 기술, 특히 클라우드 컴퓨팅을 통해 비즈니스를 강화하는 것이다. 그는 비즈니스 운영을 혁신적으로 변화시키는 고급 클라우드 아키텍처를 설계하고 구현하여 효율성, 확장성, 유연성을 향상시켜 고객이 디지털 여정에서 발전할 수 있도록 돕는다.

기업 가치

ZDNET: 윤리적 AI를 어떻게 정의하며, 오늘날 비즈니스에 왜 이것이 중요한가?

Kiran Minnasandram: 윤리적 AI는 단순히 법적 요건을 충족하는 것 이상이다; 이는 Wipro의 핵심 가치와 깊이 연결되어 있다. 우리는 개인에 대한 존중, 사회를 위한 공정성과 투명성, 환경 책임, 기술적 견고성이라는 네 가지 핵심 기둥을 중심으로 접근한다. 이를 통해 우리의 AI는 개인정보 보호, 존엄성, 사회적 공정성, 환경 책임과 일치하며 안전하고 규정을 준수한다.

ZDNET: 많은 기업이 AI 윤리에 어려움을 겪는 이유는 무엇이며, 그들이 해결해야 할 주요 위험은 무엇인가?

KM: 문제는 종종 AI를 둘러싼 공통 언어의 부족에서 비롯된다. 이를 해결하기 위해 기업은 기술, 법률, HR 팀을 통합하는 조직 전반의 전략을 수립해야 한다. AI는 단순히 기술 문제가 아니라 기업 문제다. 기업은 법적 준수를 넘어 AI 윤리를 정의하고, 유지하고자 하는 가치를 중점적으로 다루어야 한다. 또한 법적, 보안, 인력에 미치는 잠재적 영향을 다루기 위해 위험 분류 체계를 개발해야 한다.

ZDNET: AI 도입은 기업의 지속 가능성 목표에 어떤 긍정적, 부정적 영향을 미치는가?

KM: AI는 지속 가능성에 이중적인 영향을 미친다. 긍정적으로는 운영 효율성을 개선하고, 공급망을 최적화하며, 자원 관리를 강화하여 탄소 배출을 줄일 수 있다. 예를 들어, 물류에서 AI는 연료 사용을 최소화하기 위해 경로를 최적화할 수 있다. 하지만 AI의 빠른 배포는 특히 대규모 AI 모델 훈련에 필요한 집중적인 컴퓨팅 파워로 인해 에너지 소비와 탄소 배출을 증가시킨다.

환경 영향

ZDNET: 기업은 AI 혁신의 추진과 환경적 책임을 어떻게 균형 있게 유지해야 하는가?

KM: 기업은 지속 가능한 AI 사용을 위한 명확한 정책과 가이드라인을 설정해야 한다. 이 프레임워크는 팀이 인프라와 알고리즘에 대해 정보에 입각한 결정을 내릴 수 있도록 돕는다. 기업은 AI의 환경적 영향을 추적하고 모니터링하며, 서비스 제공자들에게도 이를 요구해야 한다. 우리는 고객이 AI 정책을 수정하고, 이해관계자를 참여시키며, 직원들에게 지속 가능성을 일상 프로세스에 포함시키도록 교육하는 데 도움을 주었다. 산업 간 협력은 이러한 도전을 해결하는 데 중요하며, Wipro는 고객이 이 복잡한 환경을 탐색할 수 있도록 글로벌 노력에 적극적으로 참여하고 있다.

ZDNET: 윤리적 AI와 지속 가능성 문제를 해결하기 위해 글로벌 규제는 어떻게 진화하고 있는가?

KM: AI는 진공 상태에서 작동하지 않는다. 개인정보 보호, 소비자 보호, 보안, 인권에 관한 기존 법률이 모두 적용된다. 데이터 보호 규제 기관은 AI로 인한 피해를 방지하는 데 핵심적이며, 소비자 보호법은 알고리즘 가격 책정과 같은 문제를 다룬다. 일부 지역은 EU AI Act와 같이 AI 전용 법률을 제정하여 제품의 위험 수준에 따라 더 엄격한 통제를 부과하고 있다. 미국에서는 개별 주들이 노동 관리에서의 AI에 초점을 맞추며, 이는 AI 배포에서 더 복잡한 영역 중 하나다.

가장 큰 오해

ZDNET: AI 윤리와 지속 가능성에 대한 가장 큰 오해는 무엇이며, 기업은 이를 어떻게 극복할 수 있는가?

KM: 흔한 오해는 혁신과 책임이 공존할 수 없다는 것이다. 실제로는 책임 있는 AI가 지속 가능한 혁신에 필수적이다. 신뢰는 AI 배포의 기반이며, 혁신과 신뢰를 균형 있게 유지하는 기업은 경쟁 우위를 얻는다. 소비자와 기업 모두 신뢰할 수 있는 제품에 끌릴 것이다.

ZDNET: Wipro FullStride Cloud는 기업이 AI를 ESG (환경, 사회, 지배 구조) 목표와 어떻게 정렬하도록 지원하는가?

KM: 우리는 공정성, 투명성, 책임성을 우선시하는 책임 있는 AI 프레임워크를 개발함으로써 지원한다. 우리는 AI를 사용하여 ESG 메트릭을 모니터링하고 보고하며, 탄소 발자국을 줄이기 위한 Green AI 이니셔티브를 지원한다. 인프라 측면에서는 에너지 효율성을 위해 워크로드를 최적화하고, ESG 목표를 충족하기 위한 산업별 솔루션을 개발한다.

ZDNET: 클라우드 솔루션이 AI의 환경적 발자국을 줄이는 가장 효과적인 방법은 무엇인가?

KM: 클라우드 솔루션은 재생 에너지 사용, 최적화된 냉각, 탄소 인식 컴퓨팅을 통해 에너지 효율성을 높일 수 있다. 연합 학습(federated learning)과 모델 가지치기(model pruning)와 같은 기술은 AI 모델 훈련에 필요한 에너지를 줄일 수 있다. 서버리스 및 자동 스케일링 솔루션은 수요에 맞게 리소스를 조정하여 과도한 프로비저닝을 방지한다. 클라우드 제공자는 탄소 추적 및 보고 도구를 제공하며, 멀티 클라우드와 엣지 컴퓨팅은 데이터 이동을 최소화하여 AI를 소스에 더 가깝게 처리할 수 있다.

클라우드 활용

ZDNET: 클라우드 인프라는 AI 개발에 윤리적 고려를 어떻게 포함시킬 수 있는가?

KM: 클라우드 인프라는 AI에 윤리적 고려를 포함시키는 도구를 제공한다. AI 윤리 툴킷은 편향을 탐지하고 공정성을 테스트할 수 있으며, 다양성을 고려한 훈련 도구는 데이터 세트가 대표성을 갖추도록 보장한다. 클라우드 기반 AI 프레임워크는 설명 가능성과 투명성을 제공하며, 차등 개인정보 보호(differential privacy)와 암호화 처리와 같은 기능을 통해 안전하고 개인정보를 보호하는 AI 개발을 지원한다. 자동 규정 준수 모니터링은 규정을 준수하도록 보장하며, 모델 드리프트 테스트 및 환각 탐지 도구는 모델의 신뢰성을 시간이 지나도 유지하도록 돕는다.

ZDNET: 일부 조직이 AI의 지속 가능성 영향을 측정하는 데 어려움을 겪는 이유는 무엇이며, 클라우드 기반 도구가 어떻게 도움을 줄 수 있는가?

KM: 표준 메트릭의 부족은 AI의 지속 가능성 영향을 측정하는 데 어려움을 초래한다. 클라우드 기반 도구는 AI 수명 주기 전반에 걸쳐 탄소 배출을 추적하는 사용자 정의 가능한 대시보드로 이 공백을 채울 수 있다. 에너지 소비는 크게 변동할 수 있으므로 실시간 모니터링이 중요하며, 클라우드 플랫폼은 이러한 변동을 포착하는 동적 추적 도구를 제공한다. 클라우드 네이티브 솔루션은 다양한 환경에서 데이터를 집계하여 가시성과 의사 결정을 개선한다. 또한 클라우드 도구는 AI 프로세스 전반에 걸친 숨겨진 환경 비용을 강조하고 다양한 지역별 ESG 규정 준수 요구 사항을 탐색하는 데 도움을 줄 수 있다.

ZDNET: 조직이 AI 투명성과 책임성을 개선하기 위해 취할 수 있는 구체적인 단계는 무엇인가?

KM: 첫째, 직원들이 AI를 책임감 있게 사용하도록 교육하고, 안전한 범위 내에서 AI를 질문하고 테스트하도록 장려해야 한다. 둘째, 조달에서 위험 관리에 이르기까지 비즈니스의 모든 측면을 포괄하는 포괄적인 거버넌스 구조를 수립해야 한다.

ZDNET: AI 편향은 어떻게 발생하며, 클라우드 기반 프레임워크는 이를 완화하는 데 어떤 역할을 하는가?

KM: AI 편향은 대표성이 없는 또는 편견이 있는 훈련 데이터, 인간이 라벨링한 데이터 세트의 오류, 그리고 과거 편향을 영속화하는 오래된 모델에서 발생할 수 있다. 클라우드 기반 프레임워크는 다양한 규정을 준수하고 다양한 인구 통계에 걸쳐 AI 모델을 검증함으로써 도움을 준다. 적응형 훈련 프로세스는 데이터 세트를 재균형화하여 편향을 완화할 수도 있다.

ZDNET: 기업이 책임 있는 AI 사용을 보장하기 위해 구현해야 할 거버넌스 전략은 무엇인가?

KM: 견고한 거버넌스 프레임워크가 필수적이다. 일부 조직은 전용 AI 거버넌스 구조를 가질 수 있지만, 우리와 같은 조직은 기존 거버넌스 시스템 내에 이를 통합한다. 조직의 모든 부분을 참여시키고 AI 배포에 법적 보호, 개인정보 보호, 견고성을 포함하기 위해 초기부터 AI 영향 평가를 수행하는 것이 중요하다.

AI 문제

윤리적이고 지속 가능한 AI에 대한 강조가 커지는 것에 대해 어떻게 생각하는가? 조직에서 책임 있는 AI 개발을 보장하기 위해 어떤 프레임워크나 정책을 구현했는가?

AI 워크로드의 환경적 영향을 어떻게 해결하고 있는가? 그 발자국을 측정하거나 줄이기 위해 클라우드 기반 도구를 사용하고 있는가?

글로벌 규제가 AI 혁신 속도를 따라가고 있다고 생각하는가, 아니면 기업들이 회색 영역을 스스로 탐색해야 한다고 생각하는가? 아래 댓글에서 당신의 통찰을 공유하라.

매일 아침 당신의 인박스로 배달되는 Tech Today 뉴스레터를 구독하여 최신 기술 뉴스를 받아보세요.

소셜 미디어에서 나의 일상 프로젝트 업데이트를 팔로우하세요. 주간 업데이트 뉴스레터를 구독하고 Twitter/X의 @DavidGewirtz, Facebook의 Facebook.com/DavidGewirtz, Instagram의 Instagram.com/DavidGewirtz, Bluesky의 @DavidGewirtz.com, YouTube의 YouTube.com/DavidGewirtzTV에서 나와 연결하세요.

관련 기사
Apple, Anthropic과 협력하여 Xcode용 AI 코딩 도구 개발 Apple, Anthropic과 협력하여 Xcode용 AI 코딩 도구 개발 Apple과 Anthropic, AI 기반 코딩 도우미 개발 협력블룸버그에 따르면 Apple은 자사의 대표 개발 환경인 Xcode에 직접 통합될 고급 AI 코딩 어시스턴트를 개발 중이라고 합니다. 개발자가 코드를 작성, 수정 및 테스트하는 데 도움을 주기 위해 클로드 소네트 모델을 통합할 예정입니다.이 새로운 도구는 현재 내부 테스트 중이며, App
더 많은 AI 토큰이 추론 오류를 증가시킨다는 Microsoft의 연구 결과 더 많은 AI 토큰이 추론 오류를 증가시킨다는 Microsoft의 연구 결과 LLM 추론 효율성에 대한 새로운 인사이트Microsoft의 새로운 연구에 따르면 대규모 언어 모델의 고급 추론 기술이 여러 AI 시스템에서 균일하게 개선되지 않는다는 사실이 밝혀졌습니다. 이 획기적인 연구에서는 9개의 주요 기초 모델이 추론 중에 다양한 확장 접근 방식에 어떻게 반응하는지 분석했습니다.추론 시간 확장 방법 평가하기연구팀은 세 가지 확장 기
"AI 케이팝 아이돌 패션 트렌드: 스타일 아이콘으로 변신하다" 케이팝 패션 혁명: AI와 아이돌 스타일의 만남K-Pop 아이돌은 단순한 음악 아티스트가 아니라 스타일 영향력이 기하급수적으로 커지고 있는 글로벌 패션 트렌드 세터입니다. 인공지능이 창의적인 산업을 변화시키면서 우리는 기술과 K-Pop의 미학이 만나는 새로운 시대에 접어들고 있습니다. 이 가이드에서는 좋아하는 아이돌 룩을 일상복으로 재현하고, 커스터마이징하
의견 (26)
0/200
JasonHill
JasonHill 2025년 9월 23일 오전 7시 30분 31초 GMT+09:00

這篇文章讓我開始擔心AI倫理問題了...現在科技公司都在拚速度開發AI,但好像很少人真正停下來思考倫理風險?如果連基本的透明度和問責制度都做不好,搞不好會重蹈社群媒體的覆轍😅

HarperJones
HarperJones 2025년 4월 26일 오전 7시 20분 44초 GMT+09:00

이 앱은 AI 윤리의 중요성을 정말 잘 보여줬어요. 정보가 많아서 유용하지만, 인터페이스가 조금 오래된 느낌이에요. 그래도 AI에 관심 있는 사람이라면 꼭 봐야 해요. 📚

CharlesThomas
CharlesThomas 2025년 4월 26일 오전 2시 15분 3초 GMT+09:00

このアプリはAIの倫理の重要性を教えてくれました。情報量が豊富でとても役立ちますが、インターフェースは少し古い感じがします。それでも、AIに取り組む人には必見ですね。📚

JohnRamirez
JohnRamirez 2025년 4월 26일 오전 12시 41분 34초 GMT+09:00

This app really opened my eyes to the importance of AI ethics. It's super informative, but man, the interface could use a bit of a facelift. Still, it's a must-read for anyone diving into AI. 📚

DouglasPerez
DouglasPerez 2025년 4월 24일 오후 6시 11분 28초 GMT+09:00

¡Esta herramienta te abre los ojos sobre el lado ético de la IA! Es súper útil para cualquiera que quiera profundizar en prácticas responsables de IA. Aprecio cómo descompone problemas complejos en pasos manejables. Solo desearía que tuviera más ejemplos del mundo real para relacionarse. Aún así, es imprescindible para los entusiastas de la IA! 😎

HaroldMoore
HaroldMoore 2025년 4월 24일 오후 4시 58분 51초 GMT+09:00

このアプリは目覚まし時計のようですね!AI倫理の重要性を実感しました。責任あるAIの実装について多くを学びましたが、情報が少し重いと感じることもあります。それでも、テック業界の人には必須です!🌟

위로 돌아갑니다
OR