옵션
뉴스
2024 : AI의 놀라운 성장과 혁신의 해

2024 : AI의 놀라운 성장과 혁신의 해

2025년 4월 10일
101

2024 : AI의 놀라운 성장과 혁신의 해

2025년에 접어들면서, 2024년에 이룩한 놀라운 발전을 되돌아보는 것은 매우 기쁜 일입니다. 에이전트 시대에 맞춘 Gemini 2.0 모델 출시부터 창의적 표현 강화, 새로운 단백질 결합체 설계, AI를 활용한 신경과학 및 양자 컴퓨팅 발전에 이르기까지, 우리는 인공지능의 경계를 책임감 있고 대담하게 확장해 왔습니다. 이 모든 노력은 인류의 더 큰 이익을 위해 AI를 활용하는 것을 목표로 합니다.

2년 전 에세이 *왜 우리는 AI에 집중하는가*에서 언급했듯이, 우리의 AI 개발 접근 방식은 세계의 정보를 정리하고 이를 보편적으로 접근 가능하며 유용하게 만드는 창립 사명에 뿌리를 두고 있습니다. 이 사명은 가능한 한 많은 사람들의 삶을 향상시키려는 우리의 헌신을 이끌며, 이는 우리의 북극성으로 남아 있습니다.

2024년 연말 리뷰에서, 우리는 Google의 많은 재능 있는 팀들이 우리의 사명을 발전시키기 위해 끊임없이 노력한 놀라운 성취를 기념합니다. 그들의 노력은 앞으로의 더 흥미로운 발전을 위한 발판을 마련했습니다.

모델, 제품, 기술에서의 끊임없는 혁신

2024년은 실험, 신속한 배포, 그리고 최신 기술을 개발자들의 손에 전달하는 해였습니다. 12월에 우리는 에이전트 시대를 위해 특별히 설계된 Gemini 2.0 실험 시리즈의 첫 번째 모델을 공개했습니다. 우리는 다재다능한 Gemini 2.0 Flash로 시작했으며, 이어서 에이전트 연구에서 나온 최첨단 프로토타입을 선보였습니다. 여기에는 보편적 AI 어시스턴트의 가능성을 탐구하는 업데이트된 Project Astra, 실험적 확장 프로그램으로 Chrome에서 작업을 수행할 수 있는 초기 프로토타입 Project Mariner, 그리고 AI 기반 코드 에이전트 Jules가 포함됩니다. 우리는 Gemini 2.0의 기능을 플래그십 제품에 통합하고자 하며, 이미 10억 명 이상이 새로운 유형의 질문을 탐구하기 위해 사용하는 Search 내 AI Overviews에서 테스트를 시작했습니다.

또한 우리는 Gemini Advanced에서 새로운 에이전트 기능인 Deep Research를 출시하여 복잡한 질문에 답하기 위한 다단계 계획을 생성하고 실행함으로써 연구 시간을 절약했습니다. 또한 사고 과정을 투명하게 보여주는 Gemini 2.0 Flash Thinking Experimental 모델을 소개했습니다.

연초에는 Gemini의 기능을 더 많은 Google 제품에 통합하고 Gemini 1.5 Pro와 Gemini 1.5 Flash를 출시하며 큰 진전을 이루었습니다. 후자는 속도와 효율성에 최적화되어 컴팩트한 크기와 비용 효율성 덕분에 개발자들 사이에서 가장 인기 있는 모델이 되었습니다.

또한 우리는 AI Studio를 데스크톱, iOS, Android에서 설치 가능한 프로그레시브 웹 앱(PWA)으로 제공하여 개발자들에게 강력한 리소스 세트를 제공했습니다. NotebookLM의 새로운 기능, 예를 들어 Audio Overviews에 대한 대중의 반응은 환상적이었습니다. 이 기능들은 업로드된 소스 자료에서 깊이 있는 토론을 생성하여 학습을 더 매력적으로 만듭니다.

Gemini Live, Project Astra, Journey Voices, YouTube의 자동 더빙과 같은 제품에서 음성 입력 및 출력이 계속해서 개선되어 사용자 상호작용을 강화하고 있습니다.

오픈 커뮤니티에 기여하는 전통에 따라, 우리는 Gemini와 동일한 연구 및 기술을 기반으로 한 최첨단 오픈 모델인 Gemma에서 두 개의 새로운 모델을 출시했습니다. Gemma는 질문 응답, 추론, 코딩과 같은 영역에서 비슷한 크기의 모델을 능가했습니다. 또한 연구자들이 Gemma 2의 내부 작동을 이해할 수 있도록 돕는 도구인 Gemma Scope를 출시했습니다.

우리는 모델의 사실성을 개선하고 환각 현상을 줄이는 데 진전을 이루었습니다. 12월에 Google DeepMind, Google Research, Kaggle과 협력하여 개발한 FACTS Grounding 벤치마크를 발표하여 대형 언어 모델이 제공된 소스 자료에 기반하여 응답을 얼마나 잘 근거 짓는지, 그리고 환각을 피하는지를 평가했습니다.

FACTS Grounding 데이터셋은 1,719개의 예제로 구성되어 있으며, 문서 맥락에 기반한 장문 응답을 테스트하도록 설계되었습니다. 우리는 FACTS Grounding을 사용하여 주요 LLM을 테스트했으며, Gemini 2.0 Flash Experimental, Gemini 1.5 Flash, Gemini 1.5 Pro가 사실성 점수에서 상위 3위를 차지했으며, Gemini-2.0-flash-exp는 인상적인 83.6%를 기록했습니다.

또한 우리는 블록 단위 병렬 디코딩, 신뢰도 기반 지연, 추측적 디코딩과 같은 혁신적인 기술을 통해 ML 효율성을 개선하여 LLM의 추론 시간을 단축했습니다. 이러한 개선은 Google 제품에 이익을 가져다주며 업계 표준을 설정합니다.

스포츠에서는 코너킥에 대한 전술적 통찰력을 제공하는 축구 전술 AI 시스템 TacticAI를 출시했습니다.

연구 리더십에 대한 우리의 헌신은 여전히 강력합니다. 2010-2023년 WIPO의 생성 AI 인용 조사에 따르면, Google Research와 Google DeepMind를 포함한 Google은 두 번째로 많이 인용된 기관의 두 배 이상의 인용을 받았습니다.

2024년 1월 The Lens의 데이터를 기반으로 한 이 WIPO 그래프는 지난 10년간 생성 AI 연구에 대한 Alphabet의 중요한 기여를 강조합니다. 마지막으로, 우리는 HP와 협력하여 "매직 윈도우" 기술인 Project Starline을 상용화하며, Google Meet 및 Zoom과 같은 화상 회의 서비스에 통합하는 것을 목표로 진전을 이루었습니다.

생성 AI로 창의적 비전 강화

우리는 AI가 창의적 표현을 더 접근 가능하게 만들고 사람들이 예술적 비전을 실현하도록 도와 새로운 창의성의 영역을 열어줄 수 있다고 믿습니다. 2024년에는 이미지, 음악, 비디오를 포함한 생성 미디어 도구에 대한 일련의 업데이트를 소개했습니다.

연초에 우리는 텍스트 프롬프트로 이미지와 최대 70초의 오디오 클립을 생성하는 생성 AI 도구인 ImageFX와 MusicFX를 출시했습니다. I/O에서 우리는 라이브 음악 생성을 더 접근 가능하게 만드는 MusicFX DJ를 미리 선보였습니다. 10월에는 Jacob Collier와 협력하여 신규 및 꿈꾸는 뮤지션들을 위해 MusicFX DJ를 간소화했습니다. 또한 음악 AI 툴킷인 Music AI Sandbox를 업데이트하고, 미국 크리에이터들이 텍스트-투-뮤직 모델을 사용하여 다양한 장르의 기악 사운드트랙을 생성할 수 있도록 Dream Track 실험을 발전시켰습니다.

연말에는 최신 이미지 및 비디오 모델인 Veo 2와 Imagen 3를 출시했습니다. Imagen 3는 뛰어난 디테일, 조명, 그리고 더 적은 아티팩트를 가진 이미지를 생성하는 최고 품질의 텍스트-투-이미지 모델입니다. Veo 2는 현실 세계의 물리학과 인간의 움직임에 대한 더 나은 이해를 보여주며 사실성을 향상시켰습니다. Veo 2는 고품질 비디오 생성에서 중요한 발전을 이루었습니다.

우리는 AI의 편집 가능성을 계속 탐구하여 투명도와 물체의 거칠기 같은 속성을 제어하는 데 사용했습니다.

이 예들은 합성 데이터 생성을 사용하여 물질 속성을 편집하는 AI의 능력을 보여줍니다.

오디오 생성에서는 화면 상의 행동을 기반으로 텍스트 프롬프트에서 동적 사운드스케이프를 생성하는 비디오-투-오디오(V2A) 기술을 개선했으며, 이는 Veo에서 생성된 AI 비디오와 짝을 이룰 수 있습니다.

게임은 창의적 탐구와 구현된 에이전트 훈련을 위한 완벽한 놀이터를 제공합니다. 2024년에는 다양한 플레이 가능한 3D 환경을 생성하여 구현된 에이전트를 훈련시키고 평가하는 기초 세계 모델인 Genie 2를 소개했습니다. 이는 다양한 비디오 게임 설정에서 자연어 지침을 따를 수 있는 SIMA의 출시에 이어진 것입니다.

지능의 아키텍처: 로보틱스, 하드웨어, 컴퓨팅의 발전

우리의 멀티모달 모델이 세계의 물리학을 더 잘 이해하게 되면서, 로보틱스에서 흥미로운 발전을 가능하게 하고 있습니다. 우리는 더 유능하고 도움이 되는 로봇이라는 목표에 점점 더 가까워지고 있습니다.

ALOHA Unleashed를 통해 우리의 로봇은 신발끈 묶기, 셔츠 걸기, 다른 로봇 수리, 기어 삽입, 주방 청소와 같은 작업을 마스터했습니다.

연초에 우리는 로봇이 환경을 더 잘 탐색하고 더 빠르게 결정을 내릴 수 있도록 돕는 Robotics Transformers 작업의 확장인 AutoRT, SARA-RT, RT-Trajectory를 소개했습니다. 또한 두 팔을 조정하도록 로봇을 가르치는 ALOHA Unleashed와 시뮬레이션을 사용하여 다지 손 로봇의 실제 성능을 개선하는 강화 학습을 사용하는 DemoStart를 출시했습니다.

Robotic Transformer 2(RT-2)는 웹과 로보틱스 데이터에서 학습하여 딸기를 그릇에 넣는 등의 작업을 수행할 수 있습니다. 로보틱스 외에도, 우리의 AlphaChip 강화 학습 방법은 데이터 센터와 스마트폰의 칩 플로어플래닝을 혁신하고 있습니다. 우리는 AlphaChip의 오픈 소스 릴리스를 외부 채택을 촉진하기 위해 사전 훈련된 체크포인트를 공개했습니다. 또한 여섯 번째 세대 TPU인 Trillium을 Google Cloud 고객에게 제공하여 AI가 칩 설계를 어떻게 향상시킬 수 있는지를 보여주었습니다. AlphaChip은 칩 레이아웃을 최적화하는 법을 배우며, 생성하는 각 디자인마다 개선됩니다.

우리의 연구는 양자 컴퓨터의 오류 정정도 다루었습니다. 11월에 우리는 높은 정확도로 양자 컴퓨팅 오류를 식별하는 AI 기반 디코더인 AlphaQubit을 출시했습니다. Google DeepMind와 Google Research 간의 협력은 신뢰할 수 있는 양자 컴퓨터로의 진전을 가속화했습니다. 테스트에서 AlphaQubit은 텐서 네트워크 방법에 비해 오류를 6%, 상관 매칭에 비해 30% 줄였습니다.

12월에 Google Quantum AI 팀은 최신 양자 칩 Willow를 공개했습니다. Willow는 오늘날의 가장 빠른 슈퍼컴퓨터가 10경 년이 걸릴 벤치마크 계산을 5분 이내에 수행할 수 있습니다. 양자 오류 정정을 사용하여 Willow는 오류율을 절반으로 줄여 "임계값 이하"라는 이정표를 달성하며 2024년 물리학 돌파구 상을 수상했습니다.

Willow는 양자 컴퓨팅에서 최첨단 성능을 보여줍니다.

새로운 솔루션 발견: 과학, 생물학, 수학의 진전

우리는 AI로 과학적 진전을 가속화하며, AI의 과학 및 수학 발전 능력을 보여주는 도구와 논문을 발표했습니다. 주요 하이라이트는 다음과 같습니다:

1월에 우리는 복잡한 기하학 문제를 해결하는 AI 시스템인 AlphaGeometry를 소개했습니다. 업데이트된 AlphaGeometry 2와 공식 수학 추론을 위한 강화 학습 기반 시스템 AlphaProof는 2024년 7월 국제 수학 올림피아드에서 은메달 성적을 달성했습니다.

AlphaGeometry 2는 2024년 7월 국제 수학 올림피아드의 문제 4를 단 19초 만에 풀어 ∠KIL + ∠XPY가 180°임을 증명했습니다. Isomorphic Labs와 협력하여 우리는 생명체의 분자 구조와 상호작용을 예측하는 AlphaFold 3를 소개하여 생물학과 약물 발견에 대한 이해를 혁신하고자 했습니다. AlphaFold 3의 고급 아키텍처와 훈련은 단백질에서 DNA에 이르는 모든 생명체의 분자를 다룹니다. 또한 우리는 새로운 약물과 바이오센서를 개발할 수 있는 고강도 단백질 결합체를 생성하는 AI 시스템인 AlphaProteo로 단백질 설계에서 큰 진전을 이루었습니다. AlphaProteo는 다양한 타겟 단백질에 대한 새로운 단백질 결합체를 설계할 수 있습니다.

Harvard의 Lichtman Lab과 협력하여 우리는 인간 뇌의 나노 스케일 매핑을 최초로 제작하여 연구자들에게 제공했습니다. 이는 연결체학에 대한 우리의 10년간의 노력을 이어, 이제 인간 뇌 매핑으로 확장된 것입니다.

이 뇌 매핑 프로젝트는 피질의 가장 깊은 층에 있는 거울 이미지 세포 클러스터를 보여줍니다.

11월 말, 우리는 Royal Society와 함께 AI for Science Forum을 공동 주최하여 단백질 구조 예측, 인간 뇌 매핑, AI를 활용한 예보 및 산불 탐지와 같은 주요 주제를 논의했습니다. 또한 포럼에서 네 명의 노벨상 수상자와의 Q&A를 주최했으며, 이는 Google DeepMind 팟캐스트에서 확인할 수 있습니다.

2024년은 Demis Hassabis, John Jumper, David Baker가 AlphaFold 2 작업으로 노벨 화학상을 수상하며 단백질 설계를 혁신한 공로를 인정받은 획기적인 해였습니다. Geoffrey Hinton은 John Hopfield와 함께 인공 신경망을 사용한 기계 학습의 기초 작업으로 노벨 물리학상을 수상했습니다.

Google은 또한 NeurIPS 2024 Test of Time 논문상과 Google OR Tools의 일부인 Primal-Dual Linear Programming(PDLP)에 대한 Beale—Orchard-Hays 상을 수상하며 추가적인 찬사를 받았습니다. 이는 실제 응용 프로그램과 함께 대규모 선형 프로그래밍을 돕습니다.

인류의 이익을 위한 AI

올해 우리는 의료, 재난 대비, 교육과 같은 분야에서 AI가 직접적이고 즉각적으로 사람들에게 이익을 줄 수 있음을 보여주는 중요한 제품 발전과 연구를 발표했습니다.

의료 분야에서 AI는 특히 심혈관 질환의 조기 탐지에서 양질의 치료를 민주화할 가능성을 약속합니다. 우리의 연구는 간단한 손가락 끝 장치와 기본 메타데이터를 결합하여 심장 건강 위험을 예측할 수 있음을 보여주었습니다. 또한 결핵에 대한 AI 기반 진단을 발전시켜 AI가 높은 결핵 및 HIV 비율을 가진 인구를 효과적으로 스크리닝할 수 있음을 보여주었습니다.

Med-Gemini는 MedQA 벤치마크에서 새로운 최고 점수를 달성하여 이전 최고 기록인 Med-PaLM 2를 4.6% 초과했습니다. 우리의 Gemini 모델은 전문가를 위한 다재다능한 도구이며, 우리는 특정 도메인에 맞춘 미세 조정 모델을 개발하고 있습니다. 예를 들어, Med-Gemini는 비식별화된 의료 데이터에 대한 훈련과 Gemini의 기능을 결합하여 MedQA USMLE 스타일 질문 벤치마크에서 91.1%의 정확도를 달성했습니다.

또한 우리는 방사선학, 피부과, 병리학과 같은 분야에서 영상 전문성 부족을 해결하기 위해 기계 학습을 탐구하고 있습니다. 우리는 진단 작업과 바이오마커 발견을 위해 Derm Foundation과 Path Foundation을 출시하고, Stanford Medicine과 협력하여 Skin Condition Image Network(SCIN) 데이터셋을 개발했으며, 의료 영상 연구를 위해 CT Foundation을 공개했습니다.

교육에서는 학습에 최적화된 모델군인 LearnLM을 소개하여 Search, YouTube, Gemini에서 경험을 향상시켰습니다. LearnLM은 다른 주요 AI 모델을 능가했으며, 우리는 이를 AI Studio에서 개발자들에게 제공했습니다. 우리의 대화형 학습 동반자 LearnAbout과 오디오 토론 도구 Illuminate는 학습 경험을 더욱 풍부하게 합니다.

재난 예보 및 대비에서는 날씨와 극단적 이벤트를 개선하는 GenCast와 수천 일의 대기 조건을 시뮬레이션할 수 있는 NeuralGCM을 소개했습니다. 2024년 MacRobert Award를 수상한 GraphCast는 상세한 날씨 예측을 제공합니다.

GraphCast의 10일간의 예측은 특정 습도, 표면 온도, 풍속을 보여줍니다.

우리는 홍수 예보 모델을 개선하여 100개국과 7억 명의 사람들에게 7일 전 홍수를 예측하도록 확장했습니다.

우리의 홍수 예보 모델은 이제 100개국 이상을 커버하며, 물리적 게이지가 없는 150개국에서 가상 게이지를 사용합니다. AI는 또한 산불 탐지 및 완화에 도움을 줍니다. 우리의 Wildfire Boundary Maps는 이제 22개국에서 사용 가능하며, 우리는 20분 이내에 작은 산불을 탐지할 수 있는 위성군 FireSat을 만들었습니다.

우리는 Google Translate를 110개의 새로운 언어로 확장하여 6억 1400만 명 이상의 화자들에게 정보와 기회의 장벽을 허물었습니다.

Google Translate의 이러한 새로운 언어들은 세계 인구의 8%를 대표합니다.

책임 있는 AI의 표준 설정 지원

우리는 AI 안전에 대한 업계 선도적인 연구를 계속하며, 새로운 도구와 기술을 개발하고 이를 최신 모델에 통합했습니다. 우리는 위험을 해결하기 위해 협력할 것을 약속합니다.

오용에 대한 우리의 연구는 딥페이크와 제일브레이크가 가장 흔한 문제임을 발견했습니다. 5월에 우리는 고급 AI 모델에서 새롭게 떠오르는 기능을 식별하기 위해 The Frontier Safety Framework를 소개하고 AI Responsibility Lifecycle 프레임워크를 출시했습니다. 10월에는 모든 LLM과 작동하도록 Responsible GenAI Toolkit을 확장하여 개발자들이 책임감 있게 AI를 구축할 수 있도록 도왔습니다.

우리는 고급 AI 어시스턴트의 윤리에 대한 논문을 발표하여 AI 어시스턴트의 기술적, 도덕적 환경과 그들이 제기하는 기회와 위험을 조사했습니다.

우리는 Gemini 앱과 웹 경험에서 AI 생성 텍스트를 워터마킹하고 Veo에서 비디오를 워터마킹하기 위해 SynthID의 기능을 확장했습니다. 온라인 투명성을 높이기 위해 우리는 Coalition for Content Provenance and Authenticity(C2PA)에 가입하고 더 안전한 버전의 Content Credentials 표준을 개발했습니다.

SynthID는 예측된 토큰의 확률 점수를 조정하여 AI 생성 콘텐츠의 품질, 정확성, 창의성을 보장합니다.

LLM을 넘어, 우리는 AlphaFold 3에 대한 바이오보안 접근 방식을 공유하고, 산업 파트너들과 함께 Coalition for Secure AI(CoSAI)를 출시했으며, AI 서울 서밋에 참여하여 국제 AI 거버넌스에 기여했습니다.

AI 에이전트와 같은 새로운 기술을 개발하면서, 우리는 안전, 보안, 프라이버시 문제를 계속 탐구할 것입니다. 우리의 AI 원칙에 따라, 우리는 신중하고 점진적인 접근을 취하며 신뢰할 수 있는 테스터 및 외부 전문가들과 함께 광범위한 연구, 안전 훈련, 위험 평가를 수행합니다.

2025년을 내다보며

2024년은 AI에서 놀라운 진전과 흥분의 해였습니다. 우리는 2025년에 다가올 것들에 대해 더욱 기쁩니다.

제품, 과학, 건강, 창의성에서 AI 연구의 경계를 계속 확장하면서, 우리는 이러한 기술을 어떻게, 언제 배포할지 신중히 고려해야 합니다. 책임 있는 AI 관행을 우선시하고 협력을 촉진함으로써, 우리는 AI가 인류에게 이익을 가져오는 미래를 구축하는 데 중요한 역할을 계속할 것입니다.

관련 기사
"닷 AI 컴패니언 앱, 폐쇄 발표, 개인화 서비스 중단" 금요일 개발자의 발표에 따르면 개인적인 친구이자 친구의 역할을 하도록 설계된 AI 컴패니언 애플리케이션인 Dot이 운영을 중단할 예정입니다. 닷을 개발한 스타트업인 뉴 컴퓨터는 웹사이트를 통해 10월 5일까지 서비스를 계속 이용할 수 있으며, 사용자들이 개인 데이터를 내보낼 수 있는 시간을 제공한다고 밝혔습니다.이 앱은 올해 초 공동 창업자인 샘 휘트모어와
앤트로픽, AI로 생성된 도서 불법 복제에 대한 법적 소송 해결 앤트로픽, AI로 생성된 도서 불법 복제에 대한 법적 소송 해결 앤트로픽은 미국 작가들과의 저작권 분쟁에서 잠재적으로 비용이 많이 드는 재판을 피할 수 있는 집단 소송 합의안에 동의하며 합의에 도달했습니다. 이번 화요일에 법원 문서로 제출된 이 합의는 AI 회사가 불법 복제된 문학 작품을 사용하여 클로드 모델을 훈련시켰다는 주장에서 비롯되었습니다.합의 세부 사항은 기밀로 유지되지만, 이 사건은 저자 Andrea Bart
Figma, 모든 사용자에게 AI 기반 앱 빌더 도구 공개 Figma, 모든 사용자에게 AI 기반 앱 빌더 도구 공개 올해 초에 공개된 혁신적인 즉석 앱 개발 플랫폼인 피그마 메이크가 공식적으로 베타 버전을 종료하고 모든 사용자에게 출시되었습니다. 이 획기적인 도구는 Google의 Gemini 코드 어시스트, Microsoft의 GitHub 코파일럿과 같은 AI 기반 코딩 어시스턴트 대열에 합류하여 크리에이터가 기존의 프로그래밍 전문 지식 없이도 자연어 설명을 기능적인 프
의견 (26)
0/200
AlbertSanchez
AlbertSanchez 2025년 8월 23일 오후 2시 1분 15초 GMT+09:00

Wow, 2024 was a wild ride for AI! Gemini 2.0 sounds like a game-changer for agents. Curious how it stacks up against other models—anybody tested it yet? 🧠

FrankSmith
FrankSmith 2025년 4월 23일 오전 10시 42분 56초 GMT+09:00

¡2024 fue un año increíble para la IA! Desde Gemini 2.0 hasta la computación cuántica, es impresionante. Parece que estamos viviendo en una película de ciencia ficción. ¡No puedo esperar a ver qué nos trae 2025! 🚀

RalphGarcia
RalphGarcia 2025년 4월 20일 오전 2시 10분 39초 GMT+09:00

2024年のAIの進歩は本当に驚きでしたね!ジェミニ2.0から量子コンピューティングまで、まるでSF映画みたいです。2025年が楽しみです。🚀

CarlLewis
CarlLewis 2025년 4월 18일 오후 8시 58분 13초 GMT+09:00

2024 was insane with AI! From Gemini 2.0 to quantum computing, it felt like living in a sci-fi movie. The creativity boost was real, but sometimes I felt overwhelmed by the rapid changes. Still, it's exciting to see where AI will take us next! 🚀

RogerRoberts
RogerRoberts 2025년 4월 15일 오전 7시 22분 16초 GMT+09:00

¡2024 fue una locura con la IA! Desde Gemini 2.0 hasta la computación cuántica, parecía estar viviendo en una película de ciencia ficción. El impulso de creatividad fue real, pero a veces me sentí abrumado por los cambios rápidos. Aún así, ¡es emocionante ver a dónde nos llevará la IA a continuación! 🚀

RobertMartin
RobertMartin 2025년 4월 13일 오후 7시 55분 17초 GMT+09:00

2024年のAIの進歩は本当に驚きだった!ジェミニ2.0から量子コンピューティングまで、まるでSF映画にいるようだった。創造性の向上は確かにあったけど、急速な変化に圧倒されることもあった。それでも、AIが次にどこへ導いてくれるのか楽しみだよ!🚀

위로 돌아갑니다
OR