Your bank is using your money. You’re getting the scraps.WATCH FREE

Microsoft 연구원, 대규모 언어 모델에서 특정 지식을 삭제하는 혁신적인 기술 공개

이 게시글 내용:

  • 마이크로소프트 연구원들이 대규모 재학습 없이 AI 모델이 해리 포터와 같은 특정 정보를 잊도록 만드는 새로운 방법을 공개했습니다.
  • 3단계 기술을 사용하면 AI의 전반적인 성능을 그대로 유지하면서 단 1시간의 GPU 작업으로 지식을 효율적으로 지울 수 있습니다.
  • 이번 혁신은 미래에 더욱 적응력이 뛰어나고 윤리적인 AI 모델에 대한 희망을 제시합니다.

인공지능 분야에서 주목할 만한 진전으로, 마이크로소프트 연구팀이 대규모 언어 모델(LLM) 내 특정 지식을 선택적으로 수정하는 혁신적인 접근 방식을 발표했습니다. 최근 arXiv.org 플랫폼에 게재된 논문에 LLM 학습 과정에서 저작권이 있는 자료를 사용하는 것과 관련된 중요한 문제를 해결합니다. 나아가, 이 모델은 대대적인 재학습 없이도 적응할 수 있는지에 대한 유망한 해답을 제시합니다.

적응력의 상당한 도약

OpenAI의 ChatGPT, Meta의 Llama 2, Anthropic의 Claude 2와 같은 대규모 언어 모델은 저작권이 있는 자료를 포함할 수 있는 방대한 데이터 세트를 기반으로 텍스트 콘텐츠를 생성하는 탁월한 능력 때문에 상당한 관심과 면밀한 검토를trac왔습니다. 이러한 모델에서 특정 정보를 잊거나 학습을 중단하도록 맞춤화하는 것은 오랫동안 해결해야 할 과제였습니다.

1시간 GPU로 효율적인 삭제

마이크로소프트의 연구원 인 로넨 엘단과 마크 루시노비치는 이러한 문제에 대한 훌륭한 해결책을 제시했습니다. 그들의 논문은 LLM(학습된 언어 모델) 내에서 특정 정보를 지우는 과정을 근사화하기 위해 고안된 3단계 기법을 소개합니다. 이 접근 방식의 가장 주목할 만한 점은 효율성입니다. 특히, 그들은 단 1시간의 GPU 미세 조정만으로 해리 포터 시리즈에 관련된 모든 지식(등장인물과 줄거리 포함)을 지울 수 있음을 보여줍니다. 이러한 높은 효율성은 더욱 적응력 있고 반응성이 뛰어난 언어 모델 개발에 상당한 가능성을 제시합니다.

  SpaceX 사장이 사상 최대 규모의 IPO를 앞두고 있는 가운데 가장 큰 시험대에 올랐다는 기사 dent 참고하세요.

3단계 기법 분석

엘단과 루시노비치의 기법은 지식 축적에만 치중하고 학습된 내용을 쉽게 제거할 수 있는 메커니즘을 제공하지 않는 기존의 기계 학습 접근 방식에서 크게 벗어난다. 그들의 혁신적인 접근 방식은 세 가지 기본 단계로 구성된다

1. 관련 토큰dent: 초기 단계에서는 목표 데이터(이 경우 해리 포터 시리즈)를 사용하여 모델을 학습시킵니다. 모델은 기준 모델의 예측 결과와 비교하여 목표 데이터와 가장 밀접하게 관련된 토큰을 식별dent. 이 초기 단계는 삭제해야 할 지식을 정확히 찾아내는 토대가 됩니다.

2. 고유 표현 대체: 두 번째 단계는 해리 포터 시리즈에 특화된 고유 표현을 일반적인 표현으로 대체하는 것입니다. 이를 통해 연구진은 특정 훈련 데이터가 없는 모델의 출력과 유사한 예측 결과를 생성합니다. 이러한 대체는 지식 소거 과정에서 핵심적인 요소입니다.

3. 미세 조정 및 삭제: 마지막 단계는 대안 예측을 활용하여 기본 모델을 미세 조정하는 것입니다. 이 미세 조정 과정에서는 해리 포터 시리즈와 관련된 맥락이 제공될 때 모델의 메모리에서 원래 텍스트를 삭제합니다. 이 중요한 단계를 통해 모델은 해리 포터 책의 복잡한 이야기 ​​구조를 '잊어버릴' 수 있게 됩니다.

성공 여부 평가

엘단과 루시노비치는 자신들의 방법론의 효과를 측정하기 위해 포괄적인 일련의 테스트를 수행했습니다. 그들은 300개의matic생성된 프롬프트를 사용하여 해리 포터 시리즈와 관련된 콘텐츠를 생성하거나 논의하는 모델의 숙련도를 조사하고 토큰 확률을 면밀히 분석했습니다. 무엇보다 중요한 것은, 그들의 연구 결과에 따르면 단 한 시간의 미세 조정만으로도 모델이 해리 포터 시리즈의 세부적인 줄거리를 사실상 '잊어버릴' 수 있다는 점입니다. 놀랍게도, 이러한 기억 상실은 ARC, BoolQ, Winogrande와 같은 표준 벤치마크 평가에서 모델의 성능에 거의 영향을 미치지 않았습니다.

  시타델 창립자는 GenAI가 헤지펀드 수익률을 높이는 데 실패했다고 밝혔습니다. ( 관련 기사 참조)

시사점 및 향후 연구 방향

이 획기적인 기법은 상당한 가능성을 보여주지만, 특히 대규모 언어 모델 내에서 더 광범위한 학습 해제 작업과 관련하여 방법론을 개선하고 확장하기 위해서는 추가 연구가 필수적이라는 점을 강조해야 합니다. 또한 이 접근 방식은 해리 포터 시리즈와 같이 독특한 참조가 존재하는 허구 텍스트에 특히 효과적일 수 있다는 점도 주목할 만합니다.

인공지능 시스템이 다양한 영역에서 점점 더 중요한 역할을 수행함에 따라 특정 정보를 선택적으로 잊거나 학습에서 제외하는 능력은 매우 중요해지고 있습니다. 이 방법론은 보다 책임감 있고, 적응력이 뛰어나며, 법률을 준수하는 학습 관리 시스템(LLM)을 개발하기 위한 기초적인 단계입니다. 인공지능 분야가 지속적으로 발전함에 따라 이 방법론은 윤리적 지침, 사회적 가치, 그리고 사용자의 특정 요구 사항을 충족할 수 있는 잠재력을 지니고 있습니다.

이 글을 읽고 계시다면 이미 앞서 나가고 계신 겁니다. 뉴스레터를 구독하시면 더욱 유익한 정보를 받아보실 수 있습니다 .

공유 링크:

면책 조항: 제공된 정보는 투자 조언이 아닙니다. Cryptopolitan 페이지에 제공된 정보를 바탕으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. dent tron 권장합니다 .

가장 많이 읽은 글

가장 많이 읽은 기사를 불러오는 중...

암호화폐 뉴스 최신 정보를 받아보세요. 매일 업데이트되는 소식을 이메일로 받아보실 수 있습니다

에디터 추천

에디터 추천 기사를 불러오는 중...

- 당신을 앞서나가게 하는 암호화폐 뉴스레터 -

시장은 빠르게 움직입니다.

우리는 더 빠르게 움직입니다.

Cryptopolitan 데일리를 구독하고 시의적절하고 날카로우며 유용한 암호화폐 관련 정보를 이메일로 받아보세요.

지금 가입하시면
어떤 움직임도 놓치지 않으실 수 있습니다.

뛰어드세요. 사실을 파악하세요.
앞서 나가세요.

CryptoPolitan 을 구독하세요