2023년 세상을 뒤흔든 ChatGPT 활용법, 영향 10가지
2023년은 기술 업계에 많은 변화가 있었지만, ChatGPT의 광범위한 채택만큼 큰 변화는 없었습니다. 수년 동안 거의 알려지지 않은 채로 작업해 온 OpenAI는 2022년 11월에 처음으로 공개적으로 사용 가능한 자연어 기반 대규모 언어 모델(LLM)인 ChatGPT를 선보이며 세상에 모습을 드러냈습니다. 이를 계기로 인공지능은 모든 사람의 입에 오르내렸고, 구글, 마이크로소프트, 아마존을 비롯한 경쟁사들은 앞다투어 대응에 나섰습니다. 물론 ChatGPT가 등장하기 몇 년 전부터 인공지능 기반 기술은 존재했지만, 이전의 인공지능 구현은 산업, 교육, 일자리를 혁신할 만한 수준은 아니었습니다.
그러던 중 최적화된 프롬프트를 통해 놀라운 상호작용과 결과를 만들어낼 수 있는 생성형 AI 모델인 ChatGPT가 등장했습니다. 인터넷에 접속할 수 있는 사람이라면 누구나 무료 ChatGPT-3.5를 사용할 수 있으며, OpenAI의 최신 GPT-4 알고리즘은 한 달에 20달러에 이용할 수 있습니다. ChatGPT가 완벽하지는 않지만 데이터 합성, 작업 수행, 아이디어 도출, 콘텐츠 생성 등 그 능력은 충분히 설득력이 있어 전 산업계에서 AI를 운영에 통합하기 위해 경쟁하고 있습니다.
ChatGPT가 헤드라인을 장식할수록 그 인기는 더욱 치솟았습니다. 웹 분석 회사인 SimilarWeb에 따르면 2023년 11월 ChatGPT의 방문 횟수는 17억 건에 달했으며, OpenAI는 2023년 11월 현재 1억 명 이상의 활성 사용자를 보유하고 있다고 밝혔습니다. ChatGPT의 부상은 Google, Meta 등의 다른 LLM 도입으로 이어졌으며, 스탠포드 대학의 Constellation LLM 아틀라스에서는 2023년 중반까지 15,000개 이상의 LLM을 확인할 수 있었습니다. 한편, Microsoft는 OpenAI에 투자하여 자사의 소프트웨어와 서비스 전반에 ChatGPT를 통합했습니다.
2023년 마지막 주, OpenAI와 Microsoft가 뉴욕타임스로부터 저작권 침해로 소송을 당했을 때만 해도 ChatGPT는 헤드라인을 장식했습니다. ChatGPT의 빠른 채택은 기존의 판도를 뒤흔들었습니다. 2023년에 세상을 뒤흔든 ChatGPT의 놀라운 10가지 방법을 확인하세요.
딥페이크와 허위 정보의 등장
딥페이크와 조작은 새로운 것이 아닙니다. 허위 정보 캠페인도 마찬가지입니다. 새로운 것은 ChatGPT와 다른 생성형 AI 경쟁자들이 대중에게 잘못된 정보를 전달하고 조작하려는 의도로 설득력 있는 콘텐츠를 그 어느 때보다 쉽게 만들 수 있다는 것입니다. 선한 의도를 가진 사용자든, 자신의 의도를 따르는 악의적인 사용자든, 모든 사용자는 기본 ChatGPT를 무료로 사용할 수 있습니다.
2023년, 우리는 세계 정치에서 상황을 왜곡하는 데 사용되는 제너레이티브 AI의 사례를 많이 보았습니다. 로스앤젤레스 타임즈는 전쟁으로 폐허가 된 가자지구에서 AI가 생성한 이미지가 사건을 잘못 표현했다고 보도했습니다. 슬로바키아 국제언론연구소에 따르면 슬로바키아 국회의원 총선거를 며칠 앞두고 슬로바키아 진보당 의장과 슬로바키아 언론인 사이의 대화를 AI가 생성한 오디오로 속여 선거 부정 의혹을 제기하는 영상이 공개되기도 했습니다. 마지막으로 12월에는 파키스탄의 전 총리가 AI를 이용해 자신의 목소리를 복제한 후 감옥에서 연설을 한 사실이 CNN을 통해 밝혀졌습니다.
퓨 리서치 데이터에 따르면 미국인의 86%가 스마트폰, 태블릿, 컴퓨터를 통해 디지털 방식으로 뉴스를 소비한다는 점을 고려하면 이러한 사건은 AI가 어떻게 현실을 조작할 수 있는지에 대한 개념 증명이며, 우려할 만한 일입니다. ChatGPT의 큰 성공으로 콘텐츠와 소스 투명성에 대한 논의가 가속화되었으며, 이는 정부 고위층부터 개별 콘텐츠 제작자에 이르기까지 다양한 논의에서 자주 등장하는 문제입니다. 다가오는 미국 선거 주기를 고려할 때, 2024년에는 이러한 대화가 더욱 중요해질 것입니다.
콘텐츠의 진정성: AI가 만든 것인가, 인간이 만든 것인가?
Google의 검색 엔진 최적화 가이드라인은 오랫동안 진정성을 요구해 왔지만, ChatGPT 시대에는 콘텐츠 진정성이 완전히 새로운 차원의 의미를 갖게 됩니다. ChatGPT의 결과물은 CNET이나 스포츠 일러스트레이티드와 같은 대형 미디어 브랜드에서 AI가 생성한 뉴스 기사를 오리지널 콘텐츠로 게시할 정도로 '충분히 좋은' 수준에 근접해 있습니다.
ChatGPT가 출시된 이후 AI 도구에 대한 접근성이 대중화되었고, ChatGPT에서 실행되는 전문 콘텐츠 도구를 포함한 AI LLM 경쟁업체들이 시장에 쏟아져 나왔습니다. AI로 생성된 콘텐츠를 둘러싼 문제는 앞서 설명한 허위 정보와 딥페이크에만 국한되지 않습니다. 이는 콘텐츠의 신뢰성과 투명성이라는 더 큰 문제에 영향을 미칩니다. 일부 뉴스 조직은 생성형 AI 사용에 관한 정책을 가지고 있지만, 가이드라인과 보호 장치가 보편화되어 있지는 않습니다.
더욱 고무적인 것은 콘텐츠의 출처를 인증하는 보편적인 체계를 향한 진전이 있다는 점입니다. 이러한 노력의 중심에는 디지털 이미지 캡션에 대한 오랜 보편적 표준인 IPTC 메타데이터가 있습니다. 콘텐츠 출처 및 진위성 연합은 Adobe, Intel, Microsoft 등의 업계 대기업의 지원을 받아 IPTC를 기반으로 시스템을 구축했습니다. 이 접근 방식은 아직 초기 단계에 있으며, 디지털 인증서를 사용하여 파일의 메타데이터와 이미지 자체의 로고에 저작권 및 생성 AI 소스를 삽입하는 것을 중심으로 합니다.
한편, 구글, 미드저니, 셔터스톡은 모두 IPTC 디지털 소스 유형 메타데이터를 사용하여 생성형 AI 이미지를 감지할 계획을 발표했습니다. 이러한 이니셔티브는 좋은 첫걸음이지만, 광범위하고 의무적으로 적용되기 전까지는 허위 정보를 방지할 수 없습니다. 그 외에도 텍스트 콘텐츠의 진위 여부는 해결해야 할 또 다른 과제입니다. AI 탐지 엔진이 증가하고 가짜 AI 정보를 식별하는 방법에 대한 팁이 쏟아져 나올 것으로 예상됩니다.
전 세계 정부에서 AI 안전을 최우선 과제로 삼는 ChatGPT
ChatGPT의 부상과 AI가 일상 생활에 미칠 수 있는 영향은 영국 AI 안전 서밋에서 29개 국가와 정부 기관을 하나로 묶는 중요한 외교적 순간에 영감을 주었습니다. 이 회의에서는 AI의 혜택과 위험에 대해 논의했으며, 그 결과 '블레클리 선언'을 통해 'AI의 혁신적이고 긍정적인 잠재력'을 인정하고 AI에 대한 포괄적인 국제 대화와 협력을 추구하기 위한 서명국 간의 합의를 도출했습니다. 마지막으로 이 선언은 "AI 기술의 혜택이 선과 모두를 위해 책임감 있게 활용될 수 있도록 AI 안전에 대한 연구를 지속할 것"을 약속합니다.
이 마지막 문구는 "악이 되지 말라"는 구글의 진언과 정반대되는 것처럼 들리지만, 두 문구 모두 기술을 선하게 사용하겠다는 의지를 강조하고 있습니다. 인공지능의 경우, 인공지능이 더 멀리 나아갈 수 있는 잠재력을 암묵적으로 인정하는 것입니다. 이번 합의의 핵심은 미국, 영국, 유럽연합, 중국을 포함한 모든 당사국이 새로운 AI 모델의 사전 배포 테스트에 동의했다는 점입니다.
이 행사에서 영국과 미국은 각각 글로벌 이니셔티브와 협력하여 추가 연구 및 표준 개발을 위한 자체 AI 안전 기관을 발표했습니다. USASI는 AI 모델 안전, 보안 및 테스트와 AI 생성 콘텐츠 인증에 대한 표준을 형성하는 동시에 AI 연구를 지원하는 데 주력할 것입니다. 이 이니셔티브는 AI 안전, 보안 및 연구에 관한 포괄적인 계획을 설명하는 2023년 10월 바이든 대통령의 행정명령에 추가됩니다.
ChatGPT는 전 세계 정부의 AI 안전을 최우선 과제로 삼고 있습니다.
각국 정부는 11월 블레츨리 선언이 발표되기 훨씬 전부터 AI가 사회에 미치는 영향과 혁신을 제한하지 않으면서 AI를 규제하고 모니터링하는 방법에 대해 고민하기 시작했습니다. 유럽연합은 지난 4월 AI 규제 시도를 통해 AI 안전에 대한 논의를 시작했고, 중국은 얼마 지나지 않아 중국이 국내외에서 AI를 구현하는 방식을 규정하기 위한 생성형 AI에 관한 새로운 규정을 발표했습니다. 이러한 제너레이티브 AI 규정은 2021년 추천 알고리즘 관련 규정과 2022년 합성 콘텐츠 관련 가이드라인에 이은 것입니다.
또한 미국과 영국의 사이버 보안국은 데이터 보호 및 시스템 남용 감시와 관련된 AI 사이버 보안 가이드라인을 지지하는 18개국의 구속력 없는 합의를 주도했습니다. 이와는 별도로 11월 말에는 독일, 프랑스, 이탈리아가 "행동 강령을 통한 의무적 자율 규제"를 촉구하며 AI 시스템 규제 방식에 합의했습니다. 마침내 12월, 유럽연합은 정부 기관 최초로 AI 규제에 관한 잠정 합의안을 승인하며 한 해를 마무리했습니다.
ChatGPT의 광범위한 가용성과 놀라운 기능이 없었다면 이러한 노력은 이렇게 신속하고 긴박하게 이루어지지 못했을 것입니다. 갑자기 AI는 더 이상 먼 미래의 기술이나 공상 과학 소설의 소재가 아니라 지금 이 순간 현실이 되었습니다.
국토 안보와 전쟁의 새로운 전술
데이터 분석과 아이디어 도출에 있어 ChatGPT의 뛰어난 능력을 고려할 때, ChatGPT와 같은 AI가 현대전에 어떻게 활용될 수 있는지에 대한 논의가 활발하게 이루어지는 것은 놀라운 일이 아닙니다. 지난 8월, 미국 국방부는 국방부가 전략적으로나 책임감 있게 AI를 활용할 수 있는 방법을 평가하기 위해 제너레이티브 AI 태스크포스를 설립했습니다. 제너레이티브 AI는 위험을 평가하고, 정보를 평가하고, 현장과 사무실에서 운영을 간소화하는 데 잠재적으로 매우 유용한 도구로 여겨지고 있습니다. 또한 미국의 적들이 이 기술을 어떻게 사용할 수 있는지에 대한 대응책으로도 유용할 수 있습니다.
요컨대, ChatGPT와 같은 생성형 AI 모델로 전환하는 것은 잠재적으로 국가 안보를 강화할 수 있으며, 2023년 ChatGPT의 기술적 혁신과 폭발적인 인기가 없었다면 이러한 논의는 이루어지지 않았을 것입니다.
ChatGPT는 이미 과거 전투를 분석하여 맥락에 기반한 추론 능력에 대한 통찰력을 얻는 데 사용되었습니다. 일부 전문가들은 우리가 쇼핑 목록이나 여행 일정을 작성할 때 ChatGPT를 사용하는 것과 마찬가지로, 안전한 데이터 입력을 기반으로 미래의 전투 계획을 세우는 데 ChatGPT 또는 특수 LLM을 사용할 수 있다고 말합니다. 다행히도 전문가들은 이러한 계획을 검토하기 위해서는 숙련된 사람이 필요하다고 지적합니다. 즉, 적어도 아직은 영화 '워 게임'에서처럼 인공지능이 전쟁을 치르지는 않을 것입니다.
새로운 업무 방식과 혼란에 빠진 일자리
ChatGPT의 생성적 AI 능력은 수많은 일자리를 순식간에 도마 위에 올려놓았습니다. 2023년 내내 헤드라인은 ChatGPT와 AI가 우리가 알고 있는 일자리를 사라지게 할 것이라고 예고했고, 실제로 그런 일이 일어나고 있습니다. 그러나 AI가 우리가 알고 있는 직장과 고용 시장을 변화시킬 것이라는 데 이의를 제기하는 사람은 아무도 없지만, AI 혁명은 아직 초기 단계에 있으며 일자리 전망은 모두 예측하기 어렵습니다.
ResumeBuilder에서 실시한 설문조사에 따르면 응답자의 50%가 ChatGPT를 사용하고 있으며, 나머지 30%는 6개월 내에 사용할 계획이라고 답했습니다. 많은 기업이 내부 보안을 손상시키지 않으면서도 투명하게 AI를 통합할 수 있는 방법을 찾는 것이 관건입니다. 예를 들어, 지난 5월 삼성은 엔지니어가 실수로 기밀 정보를 유출한 후 ChatGPT 사용을 금지한 것으로 유명합니다.
ChatGPT-4를 사용하여 사용자 지정 GPT를 생성하는 OpenAI의 기능은 모든 규모의 기업이 이 기술을 더 쉽게 도입하는 데 도움이 될 것입니다. 하지만 통합은 새로운 것이 아닙니다. 예를 들어, CRM 대기업인 Salesforce는 2023년 3월에 ChatGPT로 구동되는 아인슈타인GPT를 자사의 CRM 소프트웨어에 통합했습니다.
일부 직업은 사라지겠지만 새로운 직업이 그 자리를 대신할 것입니다. 그러나 Asana의 '2023년 직장 내 AI 현황' 보고서에서 제시된 것처럼 많은 일자리가 AI가 인간 작업자의 역량을 강화하는 협업 역할로 진화할 수도 있습니다. Asana는 직원들이 업무의 29%를 AI로 대체할 수 있다고 생각하며, 이는 AI가 직원의 생산성을 보완하고 향상시킬 수 있는 여지를 남겨둔다고 밝혔습니다.
다시 한 번 편견에 맞서야 함
편견은 AI 챗봇을 포함하여 어디에나 존재합니다. 사회적으로 다양성, 평등, 포용성(DEI) 운동은 우리로 하여금 의식적이든 무의식적이든 편견을 재검토하도록 강요하고 있습니다. 그렇다면 우리의 친근한 이웃인 LLM AI 시스템은 누가 교육하고 있을까요? ChatGPT가 2023년 AI의 급증을 불러일으키면서, AI에 편향성 문제가 있다는 것이 금세 분명해졌습니다.
OpenAI는 교육자 FAQ에서 편향성에 대해 언급하며 "ChatGPT는 편견과 고정관념에서 자유롭지 않으므로 사용자와 교육자는 그 내용을 신중하게 검토해야 합니다. 편견이나 고정관념을 가르치거나 강화할 수 있는 모든 콘텐츠를 비판적으로 평가하는 것이 중요합니다. 편견 완화는 현재 진행 중인 연구 분야이며, 개선 방안에 대한 피드백을 환영합니다." 또한 FAQ는 ChatGPT의 모델이 서구적 관점과 영어 대화를 선호한다고 언급하고 있지만, 왜 이러한 편견이 있는지에 대해서는 언급하지 않고 있습니다.
ChatGPT의 응답은 두 가지를 반영합니다: 사용자의 편견을 나타내는 입력과 오픈 인터넷에 게시된 모든 종류의 신념 체계, 선입견, 가정을 반영하는 훈련 소스입니다. ChatGPT가 학습하는 자료는 AI가 응답하는 방식을 형성합니다.
편견에 맞서기 위한 노력은 계속됩니다.
AI와 편견에 대한 논의는 새로운 것이 아닙니다. 2022년 3월, 미국 국립과학기술연구소는 AI 편향성을 근절하기 위해서는 인간과 시스템의 편향성을 해결해야 한다고 밝혔습니다. 하지만 ChatGPT의 급격한 성장으로 편향성 문제가 다시 한 번 주목을 받게 되었습니다.
ChatGPT 및 기타 AI 모델의 편향성을 근절하는 것은 AI 안전에 대한 정부 기관의 우려와 관련이 있습니다. 또한 앞서 언급한 AI 모델이 기존 데이터를 학습하고 훈련하는 방식에 대한 투명성의 필요성과도 연결됩니다. 소셜 미디어 피드의 속담에 나오는 에코 챔버 루프를 생각해 보세요. 피드의 알고리즘이 사용자가 좋아하는 것을 알게 되면 계속해서 같은 콘텐츠를 더 많이 제공하게 되는데, 이것이 반드시 좋은 것만은 아닐 수 있습니다.
AI 편향성을 완화하기 위한 한 가지 출발점은 모델이 어떻게 학습되는지 이해하는 것입니다. 스탠포드 대학의 인간 중심 인공 지능 팀은 10월에 상업용 AI 시스템 뒤에 있는 모델과 훈련에 대한 빅 테크의 투명성을 평가하기 위해 고안된 기초 모델 투명성 지수를 발표했습니다. 이러한 노력은 AI 안전 이니셔티브와 규제를 추구하는 정부 기관에 좋은 첫걸음이자 출발점이 될 것입니다.
증폭된 사이버 보안 문제
사이버 보안은 ChatGPT 쓰나미의 직접적인 영향을 받은 또 다른 분야입니다. ChatGPT의 광범위한 사용으로 인해 사이버 보안 전문가들은 오랫동안 확립된 가이드라인을 파괴하는 새롭고 혁신적인 공격에 대비하고 있습니다. 예를 들어, 웨일링과 피싱 공격은 더 이상 가짜라는 것을 알 수 있는 징후가 없을 수 있습니다.
악성 코드 자체를 작성할 수 없더라도 ChatGPT를 사용하면 공격자가 공격을 자동화하고, 더 그럴듯한 이메일 피싱 공격을 만들고, 새로운 멀웨어 접근 방식을 개발하는 것이 기하급수적으로 쉬워집니다. 또한 사이버 범죄자들이 새로운 공격 벡터를 더 쉽게 혁신할 수 있게 해줍니다. 기존의 엔터프라이즈급 사이버 보안 소프트웨어를 우회하거나 개인화된 딥페이크를 만들어 직원들이 회사 기밀을 공유하도록 유도하는 방법을 찾을 수도 있습니다. 미래에는 공격자의 상상력에 의해서만 침해가 제한될 수 있으며, 이는 사이버 공격이 점점 더 정교해질 것임을 의미합니다.
일반적으로 ChatGPT와 AI의 장점은 사이버 보안 분석가가 불에는 불로 맞설 수 있다는 것입니다. ChatGPT는 코드와 프로세스의 보안 취약점을 잘 찾아내고 침투 테스트를 지원할 수 있습니다. 또한 변경 로그를 요약하고, 공격 경로를 예측하고, 솔루션을 구상하는 데에도 효과적입니다.
학교 교실에서 AI에 대해 다시 생각하기
ChatGPT는 교육에 즉각적인 영향을 미쳤습니다. 학생들은 갑자기 ChatGPT에 성가신 학기말 과제나 복잡한 미적분학 문제에 대한 답을 생성해 달라고 요청하고 즉시 자신의 답안으로 제출할 수 있는 답변을 얻을 수 있었습니다. 그 결과, 교사와 교수들은 AI가 생성한 제출물을 식별하는 방법과 ChatGPT 바로 가기를 사용하는 학생을 처리하는 방법을 빠르게 배워야 했습니다. 11월에 발표된 퓨 리서치 보고서에 따르면 ChatGPT를 알고 있는 10대 청소년 5명 중 1명은 학교 과제를 완료하는 데 이 기능을 사용하고 있는 것으로 나타났습니다.
교사들이 여전히 장단점을 놓고 논쟁을 벌이고 있지만, ChatGPT가 교실에서 계속 사용될 것임은 분명합니다. 카네기멜론 대학교 심포지엄에서 하인즈 칼리지의 조교수 Haylee Massaro는 교실에서 AI의 사용과 개요 작성, 아이디어 발상, 작문 검사 등 ChatGPT와 같은 생성형 AI 도구의 허용 가능한 용도를 제시하는 수업 정책의 필요성에 대해 이야기했습니다. 그녀는 ChatGPT를 활용한 사례 연구를 통해 학생들이 프롬프트를 작성하고 결과물을 팩트 체크하는 능력을 테스트했습니다. ChatGPT의 결과는 프롬프트에 따라 달라지며, 프롬프트 엔지니어링에는 비판적 사고가 필요합니다.
AI가 수학 문제를 풀거나 에세이를 작성할 수 있는 세상에서 교육자는 학교 수업에서 ChatGPT를 사용할 수 있는 매개변수를 결정해야 할 뿐만 아니라 학생들의 학습을 평가하는 방법도 재고해야 합니다. 결국, AI가 문제를 풀거나 에세이를 작성할 수 있다면 교육자가 과제나 시험을 채점하고 관리하는 방식이 달라집니다. 교육자들은 인공지능과 싸우는 것은 지는 싸움이 될 수 있기 때문에 인공지능과 싸우기보다는 ChatGPT를 수용하고 있습니다.
저작권과 창의력 신장
여러분은 아이디어 창출을 위해 ChatGPT를 사용했거나, 텍스트 프롬프트에서 시각적 이미지를 만드는 데 사용했을 수도 있는데, OpenAI가 유료 ChatGPT Plus에 Dall-E를 통합한 이후 이러한 작업이 가능해졌습니다. 이제 어떻게 하나요? ChatGPT의 결과물은 누가 소유하나요? ChatGPT의 결과물이 다른 저작권 소유자의 권리를 침해하지 않는다고 어떻게 믿을 수 있을까요? 생성한 결과물에 대한 저작권도 확보할 수 있을까요?
이에 대한 답은 복잡하며, 현재 작성되고 적용되는 법률은 기술 발전에 뒤쳐져 있습니다. 부분적으로는 예술과 원본 저작물 및 2차적 저작물의 정의로 돌아가는데, 작가와 아티스트가 ChatGPT의 도움으로 모든 종류의 '원본' 저작물을 만들어 소비자에게 판매하고 있다는 점을 고려하면 중요한 구분이 됩니다. 그 외에도 AI가 기존 콘텐츠를 학습하고 저작자 표시를 하지 않은 경우 원본 저작물일까요? 또한 이미지 편집기나 Google Pixel 8 Pro와 같은 기기에서 제너레이티브 AI를 사용하는 경우, 해당 사진의 몇 퍼센트가 실제 원본 작업물일까요?
OpenAI는 ChatGPT 모델이 기존 콘텐츠를 어떻게 학습시키는지에 대해 투명하게 공개하지 않습니다. 지난 11월 개발자의 날 행사에서 OpenAI의 설립자 겸 CEO인 샘 알트먼은 기업 및 개발자 고객을 위해 저작권 소송 비용을 부담하겠다고 발표하면서 저작권 문제를 인정했습니다. 이는 Microsoft, Adobe, Google, Amazon, Getty Images, Shutterstock의 약속과 일치하는 좋은 출발점이지만, 무료 및 ChatGPT Plus 사용자는 매일 점점 더 불투명해지는 이 문제를 스스로 해결해야 하는 상황에 놓이게 됩니다.
저작권과 창의성 침해
저작권 문제는 글, 작가, 미디어와 관련하여 특히 시급한 문제입니다. 이미 작가들이 저작권 침해를 이유로 Meta와 OpenAI를 상대로 소송을 제기한 바 있습니다. 가장 주목할 만한 소송 중 하나는 9월에 존 그리샴과 조지 R.R. 마틴과 같은 유명 작가와 작가 조합이 제기한 소송입니다. 만화 작가 사라 실버만(Sarah Silverman)과 소설가 마이클 샤본(Michael Chabon)과 같은 개별 크리에이터들도 별도의 소송을 제기했습니다. 이 소송은 OpenAI의 모델 훈련에 저작권이 있는 자료 사용, 대리 및 직접 저작권 침해, 공정 사용, DMCA 위반과 관련된 문제를 다루고 있습니다.
가장 최근에 뉴욕타임스가 OpenAI와 Microsoft를 상대로 제기한 소송보다 더 의미 있는 소송은 없을 것입니다. 뉴욕타임즈는 69페이지 분량의 소장에서 OpenAI가 뉴욕타임즈의 허락 없이 수백만 건의 기사를 대상으로 데이터 세트를 학습시켰으며, 그 결과 뉴욕타임즈의 기사를 표절하고 경쟁사들과 경쟁하고 있다고 주장했습니다. "타임즈의 지적 재산 보호는 공익을 위해 세계적 수준의 저널리즘에 지속적으로 자금을 지원하는 데 매우 중요합니다."라고 소송은 밝히고 있습니다.
더 타임즈의 소송은 또 다른 미디어 조직인 독일 출판사 알렉스 스프링거가 미국의 폴리티코와 비즈니스 인사이더, 독일의 빌트와 벨트 등의 미디어 콘텐츠 요약본을 제공하기 위해 OpenAI와 파트너십을 맺은 데 이어 나온 것입니다. 이번 계약에서 OpenAI는 투명성을 위해 ChatGPT가 요약과 원본 기사로 돌아가는 링크를 제공할 것이라고 밝혔습니다. 그 결과, 2024년은 AI가 법원에서 음악 저작권과 맞서 법적 선례를 세우는 해가 될 것으로 보입니다. 더 타임즈의 획기적인 사례는 또한 미디어, 출판, AI 주체 간의 미래 관계를 위한 발판이 될 것입니다.
AI 군비 경쟁에 오신 것을 환영합니다
ChatGPT가 처음 등장했을 때만 해도 외로운 늑대 같은 존재였습니다. 하지만 2023년 초에는 상황이 급변했습니다. 구글은 2월에 바드 챗봇을 출시했고, 이어 12월에는 제미니 프로 AI 모델을 출시했습니다. Microsoft는 ChatGPT 제조업체인 OpenAI에 막대한 투자를 단행하고 이 회사의 기술을 Bing 검색 엔진과 기타 소프트웨어 및 서비스에 통합했습니다.
현재로서는 ChatGPT가 여전히 지배적인 AI 플레이어로 남아 있지만, Anthropic, 일론 머스크의 Grok, Meta를 비롯한 수십 개의 회사가 그 왕좌에 도전하고 있으며, 각 회사가 우위를 점하기 위해 경쟁하고 있습니다. Apple은 10월에 코넬대학교와 함께 Ferret이라는 오픈 소스 LLM을 조용히 발표하며 경쟁에 뛰어들었습니다. 그 후 Apple의 AI 연구원들은 제한된 메모리에서 LLM을 실행하는 방법에 관한 논문을 발표했는데, 이는 Apple이 iPhone에 AI를 도입할 계획임을 암시하는 힌트였습니다. 삼성과 구글도 온디바이스 AI에 대한 계획을 발표했고, 퀄컴의 차세대 칩이 온디바이스 제너레이티브 AI에 최적화되어 있다는 점을 고려하면 놀라운 일이 아닙니다.
기술 기업들이 AI 주도권을 잡기 위해 경쟁하는 동안, 전 세계적으로 또 다른 AI 군비 경쟁이 벌어지고 있습니다. ChatGPT의 성공으로 다른 국가들도 미국의 글로벌 패권을 견제하기 위해 AI에 대한 투자를 늘리고 있습니다. 국제 무역 관리국에 따르면 미국이 가장 큰 AI 시장을 보유하고 있으며 중국과 영국이 그 뒤를 잇고 있습니다. 영국은 지난 몇 년 동안 AI 산업에 41억 달러를 투자했으며, 독일은 8월에 AI 연구 자금을 두 배로 늘린다고 발표했습니다.
이제 우리는 경쟁은 치열하고, 위험은 더욱 커지며, 변화는 빠른 속도로 일어나는 속담에 나오는 AI 서부의 여명기에 있습니다.
함께 봐두라
휴메인 AI 핀의 모든 것 (정의 정보 활용 작동원리 의의 등)
[라이프 해킹] 온라인에서 구매할 때 가짜 고객 리뷰를 발견하는 방법
[IT | 인공지능] 인공지능이 바꿀 검색 방식 - 어차피 구글이 대답할 텐데 왜 검색하나요?
[기술 | 인공지능] ChatGPT로 절대 숙제를 하면 안 되는 이유 2 가지
'[ 기술 | IT | Technology ]' 카테고리의 다른 글
오큘러스/메타 퀘스트 컨트롤러 충전 방법 (1) | 2023.12.30 |
---|---|
모토로라 레이저(2023) 리뷰: 적절한 가격의 미드 레인지 폴더 블 (2) | 2023.12.30 |
iOS 17.2 업데이트와 함께 Apple의 새로운 저널 앱을 사용하는 방법 (1) | 2023.12.29 |
iOS 17.2가 출시되었습니다. (1) | 2023.12.29 |
휴메인 AI 핀의 모든 것 (정의 정보 활용 작동원리 의의 등) (1) | 2023.12.29 |
댓글