Your bank is using your money. You’re getting the scraps.WATCH FREE

신규 AI 모델 Mixtral 8x7B가 인상적인 성능으로 최고 수준의 AI 모델에 도전장을 내밀었습니다

이 게시글 내용:

요약:

  • Mistral AI의 Mixtral 8x7B는 스마트 기술로 AI 세계를 놀라게 하며 경쟁사인 GPT-3.5와 Llama 2 70B를 제쳤습니다.
  • 이 모델은 오픈소스이고 다재다능하며, 여러 언어를 지원하고, 대규모 작업을 처리하며, 심지어 코딩도 가능합니다.
  • Hugging Face에서 받아 안전하게 사용하고, 앞으로 더욱 흥미진진한 AI의 놀라운 모습을 기대하세요.

빠르게 진화하는 인공지능 환경 속에서 비교적 새로운 기업이 등장하며 기술계에 큰 반향을 일으키고 있습니다. 프랑스 인공지능 기업 미스트랄 AI(Mistral AI)가 개발한 믹스트랄 8x7B는 독특한 접근 방식과 뛰어난 성능으로 주목을 받고 있습니다. 이 글에서는 믹스트랄 8x7B의 특징과 AI 커뮤니티에서 뜨거운 반응을 얻고 있는 이유를 자세히 살펴봅니다.

Mixtral 8x7B: 게임 체인저

기술 업계가 사이 , Mixtral 8x7B가 조용히 경쟁에 뛰어들었습니다. Mixtral 8x7B의 가장 큰 특징은 전문가 혼합(MoE)을 사용하여 사람과 유사한 반응을 생성한다는 것입니다. 이러한 접근 방식은 ChatGPT나 Google Bard와 같은 모델과는 상당히 다릅니다. 특히 Mixtral 8x7B는 467억 개의 매개변수를 사용하는 강력한 모델을 자랑하지만, 하드웨어 리소스는 훨씬 적게 사용합니다.

Mixtral 8x7B의 성능은 결코 과소평가해서는 안 됩니다. 유명한 ChatGPT의 GPT-3.5 모델과 Meta의 Llama 2 70B 모델과dent하거나 심지어 더 뛰어난 성능을 자랑합니다. 이 오픈소스 모델은 Apache 2.0 라이선스를 기반으로 하므로 누구나 접근하여 사용할 수 있습니다. 단일 언어에 국한되지 않고 영어, 프랑스어, 이탈리아어, 독일어, 스페인어로 원활하게 작동합니다. 또한, 코드 생성 기능도 갖추고 있습니다.

AI 혁명의 핵심, Mistral AI를 만나보세요

믹스트랄(Mixtral)의 핵심인 미스트랄 AI(Mistral AI)는 메타(Meta)와 구글(Google)에서 경력을 쌓은 연구원들이 설립한 프랑스 AI 기업입니다. 올해 미스트랄 AI는 약 4억 5천만 유로의 투자를 유치하며 큰 반향을 일으켰습니다. 최신 모델인 믹스트랄 8x7B는 트위터 .

  "생성형 인공지능을 악용하는 AI 범죄자들과 싸울 준비가 되었는가?" 도 참조

MoE의 장점

Mixtral은 수신 토큰을 처리하고 시스템 내 다양한 ​​전문가에게 분배하기 위해 MoE 아키텍처를 사용합니다. 각 전문가는 본질적으로 신경망이며, Mixtral 8x7B는 8개의 전문가를 보유하고 있습니다. 이 아키텍처는 계층적 MoE를 가능하게 하며, 한 전문가가 또 다른 MoE가 될 수 있습니다. 프롬프트가 Mixtral 8x7B에 제출되면 라우터 네트워크가 각 토큰을 처리할 가장 효과적인 전문가를 선택합니다. 흥미롭게도, 토큰당 두 명의 전문가가 선택되고 그들의 출력이 결합됩니다.

MoE는 장점과 단점을 모두 가지고 있습니다. 사전 학습 단계에서는 연산 효율성 측면에서 뛰어나지만, 미세 조정 단계에서는 과적합(overfitting)의 위험이 있습니다. 여기서 과적합이란 모델이 학습 데이터에 지나치게 의존하여 학습 데이터를 그대로 재현하는 것을 의미합니다. 긍정적인 측면으로는, 추론 과정에서 전문가의 일부만 사용하기 때문에 추론 시간이 더 빠르다는 것입니다. 

그러나 여전히 470억 개의 매개변수 모델을 수용할 만큼 충분한 RAM이 필요합니다. 470억 개의 매개변수는 예상된 560억 개와 다른데, 많은 매개변수가 교육부(MoE) 간에 공유되고 각 전문가의 70억 개의 매개변수가 모두 8배로 곱해지지 않기 때문입니다.

사용자 친화적이고 접근성이 좋음

Mixtral 8x7B의 주요 특징 중 하나는 사용자 친화성입니다. 사용자가 직접 조정할 수 있으며, 고성능 컴퓨터를 갖춘 사람이라면 누구나 배포할 수 있습니다. 사용자는 LM Studio를 사용하여 로컬에서 실행할 수 있으므로 모델의 동작을 최적으로 제어할 수 있습니다. 또한, 기본적으로 활성화되어 있지는 않지만 잠재적으로 유해한 콘텐츠로부터 보호하는 가드레일을 활성화할 수 있습니다. 이를 통해 안전하고 책임감 있는 AI 경험을 보장합니다.

  트럼프 덕분에 나는 자동차가 새로운 트렌드로 떠오른 것도 참고하세요

Mixtral을 로컬에서 실행하고 싶지 않거나 하드웨어 요구 사항이 부족한 분들을 위해 Hugging Face에서 사용할 수 있습니다. Hugging Face 구현에는 기본 가드레일이 포함되어 있어 성능 및 처리 가능한 쿼리 범위 측면에서 ChatGPT 3.5와 유사한 환경을 제공합니다. Mixtral 8x7B는 특정 도메인에 특화되지 않고, 다재다능하고 포괄적인 대규모 언어 모델입니다.

생성적 AI의 미래

기술이 계속 발전함에 따라 2023년에는 생성 AI 모델이 급증했습니다. 내년에는 더 많은 모델이 출시되고 지속적인 개선이 이루어질 가능성이 높아짐에 따라 이러한 환경은 더욱 발전할 것으로 예상됩니다. OpenAI와 인공 일반 지능(AI)의 등장 가능성에 대한 소문이 돌면서, AI 세계는 가까운 미래에 더욱 흥미로운 발전을 맞이할 것으로 예상됩니다. Mixtral은 그러한 미래의 일부가 될 것입니다. 

암호화폐 뉴스를 단순히 읽는 데 그치지 마세요. 이해하세요. 저희 뉴스레터를 구독하세요. 무료입니다 .

공유 링크:

면책 조항: 제공된 정보는 투자 조언이 아닙니다. Cryptopolitan 페이지에 제공된 정보를 바탕으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. dent tron 권장합니다 .

가장 많이 읽은 글

가장 많이 읽은 기사를 불러오는 중...

암호화폐 뉴스 최신 정보를 받아보세요. 매일 업데이트되는 소식을 이메일로 받아보실 수 있습니다

에디터 추천

에디터 추천 기사를 불러오는 중...

- 당신을 앞서나가게 하는 암호화폐 뉴스레터 -

시장은 빠르게 움직입니다.

우리는 더 빠르게 움직입니다.

Cryptopolitan 데일리를 구독하고 시의적절하고 날카로우며 유용한 암호화폐 관련 정보를 이메일로 받아보세요.

지금 가입하시면
어떤 움직임도 놓치지 않으실 수 있습니다.

뛰어드세요. 사실을 파악하세요.
앞서 나가세요.

CryptoPolitan 을 구독하세요