최신 뉴스
당신을 위해 엄선되었습니다
주간
최고 자리를 유지하세요

최고의 암호화폐 관련 정보를 이메일로 받아보세요.

구글 분석가, AI 답변 '완벽하지 않으며, 인간의 두뇌를 대체할 수 없다' 경고

고고제프리 고고지음
읽는 데 3분 소요
Google
  • 구글 분석가 게리 일리스는 LLM(로마 법학 모델)의 정확도에 여전히 부족한 부분이 있다고 경고했습니다.
  • 모델이 생성한 콘텐츠를 검증하려면 사람의 눈이 필요합니다.
  • 그는 사람들이 공신력 있는 출처를 확인하지 않고는 AI의 답변을 신뢰해서는 안 된다고 말했다.

구글 분석가 게리 일리스는 챗GPT와 같은 생성형 AI 챗봇의 기반 기술인 대규모 언어 모델이 여전히 정확도에 부족한 부분이 있으며, 생성된 콘텐츠를 검증하기 위해 사람의 눈이 필요하다고 경고했습니다. 이러한 발언은 오픈AI가 서치GPT를

공유했지만 의견을 , 질문의 구체적인 내용은 밝히지 않았습니다. 그는 사람들이 다른 공신력 있는 출처를 확인하지 않고는 AI의 답변을 신뢰해서는 안 된다고 말했습니다. 오픈AI는 자사의 검색 도구를 통해 검색 엔진 시장에서 구글의 독점적 지위를 뒤집는 것을 목표로 하고 있습니다.

AI의 답변이 '반드시 사실에 부합하는 것은 아니다'

10년 넘게 구글에서 근무해 온 일리스는 AI의 답변이 사실에 가까울 수는 있지만 "반드시 사실에 부합하는 것은 아니다"라고 말했습니다. 그는 대규모 언어 모델(LLM)이 인터넷에 떠도는 잘못된 정보를 학습하는 데서 자유롭지 않기 때문이라고 설명했습니다.

일리예스는 "LLM은 훈련 데이터를 기반으로 프롬프트의 맥락과 의미에 가장 잘 맞는 단어, 구, 문장을 찾아낸다"며, "이를 통해 관련성 있고 일관성 있는 답변을 생성할 수 있지만, 반드시 사실적으로 정확한 답변을 생성하는 것은 아니다"라고 썼다.

구글 분석가는 사용자들이 여전히 "LLM에 질문한 주제에 대해 자신이 알고 있는 내용이나 해당 질문에 대한 권위 있는 자료를 추가로 읽어본 것"을 바탕으로 AI 답변의 타당성을 검증해야 할 것이라고 말했습니다.

개발자들이 AI 생성 콘텐츠의 신뢰성을 확보하기 위해 시도해 온 한 가지 방법은 "그라운딩"이라는 방식입니다. 이 과정은 기계가 생성한 정보에 인간의 요소를 접목하여 오류를 방지하는 것입니다. 하지만 일리스에 따르면, 그라운딩만으로는 충분하지 않을 수 있습니다.

그는 "접근성 훈련은 사실에 근거한 답변을 더 많이 만들어내는 데 도움이 될 수 있지만 완벽하지는 않습니다. 두뇌를 대체할 수는 없죠."라고 말했습니다. "인터넷에는 의도적이든 비의도적이든 잘못된 정보가 넘쳐나는데, 온라인에서 읽는 모든 것을 믿지 않듯이 LLM(Learning Leadership Model)을 사용해서도 모든 것을 믿지 않을 이유가 없죠."

일론 머스크, 구글이 공개 정보의 접근을 통제한다고 비난

같은 검색 엔진 및 기타 인공지능 플랫폼과 관련하여 신뢰 문제는 항상 존재해 왔으며 구글 , 이러한 플랫폼들이 사용자에게 제공하는 정보에 대해 어느 정도 통제력을 행사한다는 점이 논란의 대상이었습니다.

그러한 사례 중 하나dentdentdent dentdentdentdent dentdent 일론 머스크는 하며 구글이 해당 사건을 검색 결과에서 제외했다고dent , 거대 기술 기업의 영향력에 대한 소셜 미디어상의 큰 논쟁을 불러일으켰습니다.

쏟아지는 반응 속에서 구글 부사장 아나 모스타락을 사칭하는 가짜 계정이dent 에 가세하여, 가짜 게시물을 구글이 트럼프 관련 콘텐츠를 차단한 것에 대해 사과하는 내용의

"...사람들의 정보에 대한 요구는 계속해서 증가하고 있으므로, 저희는 검색 기능을 계속 발전시키고 개선해 나갈 것입니다. 하지만 '정확성'이라는 단어의 의미를 재조정해야 할 필요가 있는 것 같습니다. 정확성은 주관적이며, 정확성을 추구하는 데만 집중하다 보면 정작 중요한 일을 처리하는 데 방해가 될 수 있습니다."라고 가짜 계정이 X에 게시했습니다.

"저희 팀은 정확성에 대한 집착이 미래에 대한 비전을 가로막는trac요소가 되지 않도록 최선을 다하고 있으니 안심하셔도 됩니다."라고 덧붙였습니다.

X 커뮤니티에서는 해당 트윗이 구글 부사장을 사칭하는 것이라고 즉시 지적했습니다. 이는 정보가 얼마나 쉽게 왜곡될 수 있는지, 그리고 AI 모델이 인간의 검토 없이는 정보의 정확성을 제대로 판단하지 못할 수 있음을 보여주는 사례입니다.

이 글을 읽고 계시다면 이미 앞서 나가고 계신 겁니다. 뉴스레터를 구독하시면 더욱 유익한 정보를 받아보실 수 있습니다.

이 기사를 공유하세요

면책 조항: 제공된 정보는 투자 조언이 아닙니다. Cryptopolitan이 페이지에 제공된 정보를 바탕으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다.trondentdentdentdentdentdentdentdent .

더 많은 뉴스
심층 암호
화폐 속성 강좌