본문 바로가기
[ 기술 | IT | Technology ]

[기술 | 인공지능] ChatGPT로 절대 숙제를 하면 안 되는 이유 2 가지

by 【╉Ⅹ¬ ㆍχ】 2023. 3. 9.
728x90
반응형
● 제목 : ChatGPT로 절대 숙제를 하면 안 되는 이유 2 가지
● 채널 : Slashgear
● 날짜 : 2023.03.02
● 글쓴이 : ATHER FAWAZ

ChatGPT로 절대 숙제를 하면 안 되는 이유 2 가지

ChatGPT이 열려 있습니다AI의 가장 최신이고 중요한 LLM(Large Language Model)은 자연어 대화에 탁월합니다. 놀라운 능력을 갖춘 챗봇은 2022년 11월에 처음 공개된 이후로 헤드라인을 장식했습니다. 지금까지, 우리는 모두 모델이 그럴듯하고 일관된 텍스트를 만들어낸 많은 사례를 보았습니다. 자연스럽게, 사람들은 그것을 자신의 것으로 간주하기 위해 콘텐츠를 생성하는 것과 같이, 일을 하는 것을 돕고 돈을 벌기 위한 방법으로 사용하기 시작했습니다. ChatGPT가 빠르게 채택된 것은 누구나 AI 도구를 무료로 사용할 수 있고, 이제 훨씬 더 많은 기능을 제공하는 월 20달러 플러스 요금제가 생겼기 때문입니다.

이와 같이, 학생들이 숙제를 하기 위해 ChatGPT을 활용하기 시작한 것은 놀라운 일이 아니다. 이는 AI와 글쓰기 및 교육 전반에서 AI의 역할에 대한 상당한 논쟁을 불러일으켰습니다. 일부 학교와 대학들은 이미 이 기술의 사용에 대한 엄격한 금지를 발표했고, 일부 교육자들은 부정행위를 하기 위해 ChatGPT을 사용한 학생들을 붙잡았다고 보고했습니다. 만약 여러분이 스스로 위험을 감수하는 것을 고려하고 있다면, 인공지능이 여러분을 위해 숙제를 하도록 하는 것을 재고해야 할 몇 가지 좋은 이유가 있습니다.


인공지능이 생성한 텍스트를 감지할 수 있는 도구가 있습니다.

여러분은 텍스트 조각이 ChatGPT 같은 모델에 의해 생성되는지 여부를 발견하는 것이 매우 어렵다고 주장할 수 있지만, 사실은 그렇지 않습니다. 인공지능 도구와 이와 유사한 다른 도구의 급속한 성장은 인공지능이 생성한 텍스트를 탐지하도록 설계된 유사한 도구의 개발에 박차를 가했고, 이 탐지의 배후에 있는 과학은 이제 막 시작되고 있습니다. 예를 들어, 2023년 1월에 제출된 한 연구는 기계 학습 모델을 사용하여 인간이 만든 텍스트와 ChatGPT와 같은 챗봇이 만든 텍스트를 구분할 때 79%의 정확도를 주장했습니다.

교사와 교수는 학생의 에세이를 신속하게 분석하고 그것이 AI에서 생성되었는지에 대한 신뢰할 수 있는 추정치를 반환할 수 있는 여러 도구에 액세스 할 수 있습니다. 그러한 도구 중 하나는 GPTZero라고 불리며, 이미 100만 명 이상의 사용자를 자랑합니다. 또 다른 도구는 오픈이 공개한 GPT-2에서 생성된 콘텐츠를 감지하도록 설계된 AI 검출기입니다. 2019년 AI. 이러한 도구의 도움으로 학업 부정이 플래그가 지정되면 학교 정책에 따라 퇴학 또는 기타 엄중한 처벌을 받을 수 있습니다.


AI가 잘못된 정보를 제공할 수 있습니다.

OpenAI는 이전 모델과의 작업을 통해 허위 데이터가 감소하는 등 고품질 콘텐츠를 생성할 수 있었다고 말합니다. 그럼에도 불구하고, ChatGPT는 여전히 신뢰할 수 있는 방식으로 잘못된 정보를 제시하는 경향이 있습니다. 이것의 이면에 있는 이유는 ChatGPT가 핵심적으로 특정 맥락에서 다음 단어를 예측하는 것을 배우는 자기 회귀 모델에 불과하기 때문입니다. 간단히 말해서, 텍스트를 생성하기 위해 활용하는 추론이나 잘 정의된 지식 기반이 없습니다. 따라서 이 모델은 기존의 구글 검색과 비교할 때 적어도 신뢰할 수 없습니다. ChatGPT와 관련된 이러한 본질적인 문제는 전문적이고 학술적인 환경에 배치될 때 역효과를 가져올 수 있습니다.

예를 들어, 마이크로소프트의 Bing Chat과 구글의 Bard 챗봇은 각각의 공개 과정에서 잘못된 정보를 제시했고, 마이크로소프트의 경우 AI가 완전히 꾸며낸 세부 정보까지 생성했지만, 권위적이고 신뢰할 수 있는 방식으로 제시했습니다. 인공지능으로 인한 실수 문제는 이미 일부 학생들을 곤경에 빠뜨렸습니다. 

예를 들어, Business Insider는 한 교수가 자신의 학생이 AI를 사용하여 부정행위를 하고 있다는 것을 알아냈는데, 그 이유는 그들의 에세이가 사실적 오류를 잘 썼기 때문이라고 보도했습니다. 다른 교육자는 인공지능이 만든 에세이가 세련될 수 있지만, 그것들은 "부드럽고" 실제적인 내용이 부족한 경향이 있다고 설명했습니다. 인공지능 탐지 도구와 결합된 이러한 명백한 지표는 숙제에 ChatGPT를 사용하는 것을 특히 위험하게 만들고, 그것은 곧 바뀔 것 같지 않습니다.

반응형

댓글