The Anatomy Of Deepseek

The Anatomy Of Deepseek

The Anatomy Of Deepseek

댓글 : 0 조회 : 7

그래서, DeepSeek 팀은 이런 근본적인 문제들을 해결하기 위한 자기들만의 접근법, 전략을 개발하면서 혁신을 한층 가속화하기 시작합니다. 이런 두 가지의 기법을 기반으로, DeepSeekMoE는 모델의 효율성을 한층 개선, 특히 대규모의 데이터셋을 처리할 때 다른 MoE 모델보다도 더 좋은 성능을 달성할 수 있습니다. 대부분의 오픈소스 비전-언어 모델이 ‘Instruction Tuning’에 집중하는 것과 달리, 시각-언어데이터를 활용해서 Pretraining (사전 훈련)에 더 많은 자원을 투입하고, 고해상도/저해상도 이미지를 처리하는 두 개의 비전 인코더를 사용하는 하이브리드 비전 인코더 (Hybrid Vision Encoder) 구조를 도입해서 성능과 효율성의 차별화를 꾀했습니다. 두 모델 모두 DeepSeekMoE에서 시도했던, DeepSeek만의 업그레이드된 MoE 방식을 기반으로 구축되었는데요. 불과 두 달 만에, DeepSeek는 뭔가 새롭고 흥미로운 것을 들고 나오게 됩니다: 바로 2024년 1월, 고도화된 MoE (Mixture-of-Experts) 아키텍처를 앞세운 DeepSeekMoE와, 새로운 버전의 코딩 모델인 DeepSeek-Coder-v1.5 등 더욱 발전되었을 뿐 아니라 매우 효율적인 모델을 개발, 공개한 겁니다. 이 DeepSeek-Coder-V2 모델에는 어떤 비밀이 숨어있길래 GPT4-Turbo 뿐 아니라 Claude-3-Opus, Gemini-1.5-Pro, Llama-3-70B 등 널리 알려진 모델들까지도 앞서는 성능과 효율성을 달성할 수 있었을까요? DeepSeek 연구진이 고안한 이런 독자적이고 혁신적인 접근법들을 결합해서, DeepSeek-V2가 다른 오픈소스 모델들을 앞서는 높은 성능과 효율성을 달성할 수 있게 되었습니다. 이전 버전인 DeepSeek-Coder의 메이저 업그레이드 버전이라고 할 수 있는 DeepSeek-Coder-V2는 이전 버전 대비 더 광범위한 트레이닝 데이터를 사용해서 훈련했고, ‘Fill-In-The-Middle’이라든가 ‘강화학습’ 같은 기법을 결합해서 사이즈는 크지만 높은 효율을 보여주고, 컨텍스트도 더 잘 다루는 모델입니다.


MoE에서 ‘라우터’는 특정한 정보, 작업을 처리할 전문가(들)를 결정하는 메커니즘인데, 가장 적합한 전문가에게 데이터를 전달해서 각 작업이 모델의 가장 적합한 부분에 의해서 처리되도록 하는 것이죠. DeepSeek-Coder-V2는 이전 버전 모델에 비교해서 6조 개의 토큰을 추가해서 트레이닝 데이터를 대폭 확충, 총 10조 2천억 개의 토큰으로 학습했습니다. 이전의 버전 1.5와 비교해서 버전 2는 338개의 프로그래밍 언어와 128K의 컨텍스트 길이를 지원합니다. 이게 무슨 모델인지 아주 간단히 이야기한다면, 우선 ‘Lean’이라는 ‘ 기능적 (Functional) 프로그래밍 언어’이자 ‘증명 보조기 (Theorem Prover)’가 있습니다. DeepSeek-V2에서 도입한 MLA라는 구조는 이 어텐션 메커니즘을 변형해서 KV 캐시를 아주 작게 압축할 수 있게 한 거고, 그 결과 모델이 정확성을 유지하면서도 정보를 훨씬 빠르게, 더 적은 메모리를 가지고 처리할 수 있게 되는 거죠. 이렇게 하는 과정에서, 모든 시점의 은닉 상태들과 그것들의 계산값을 ‘KV 캐시 (Key-Value Cache)’라는 이름으로 저장하게 되는데, 이게 아주 메모리가 많이 필요하고 느린 작업이예요. 모든 태스크를 대상으로 전체 2,360억개의 파라미터를 다 사용하는 대신에, DeepSeek-V2는 작업에 따라서 일부 (210억 개)의 파라미터만 활성화해서 사용합니다. 조금만 더 이야기해 보면, 어텐션의 기본 아이디어가 ‘디코더가 출력 단어를 예측하는 각 시점마다 인코더에서의 전체 입력을 다시 한 번 참고하는 건데, 이 때 모든 입력 단어를 동일한 비중으로 고려하지 않고 해당 시점에서 예측해야 할 단어와 관련있는 입력 단어 부분에 더 집중하겠다’는 겁니다.


더 적은 수의 활성화된 파라미터를 가지고도 DeepSeekMoE는 Llama 2 7B와 비슷한 성능을 달성할 수 있었습니다. DeepSeekMoE는 각 전문가를 더 작고, 더 집중된 기능을 하는 부분들로 세분화합니다. DeepSeekMoE는 LLM이 복잡한 작업을 더 잘 처리할 수 있도록 위와 같은 문제를 개선하는 방향으로 설계된 MoE의 고도화된 버전이라고 할 수 있습니다. 과연 DeepSeekMoE는 거대언어모델의 어떤 문제, 어떤 한계를 해결하도록 설계된 걸까요? It both narrowly targets problematic end makes use of whereas containing broad clauses that could sweep in a number of superior Chinese client AI models. Overall, ChatGPT gave the best answers - however we’re nonetheless impressed by the level of "thoughtfulness" that Chinese chatbots display. Here’s the very best part - GroqCloud is free for most customers. The same day DeepSeek's AI assistant grew to become the most-downloaded free app on Apple's App Store in the US, it was hit with "giant-scale malicious assaults", the corporate said, inflicting the corporate to short-term limit registrations. This brings us back to the identical debate - what is definitely open-source AI? DeepSeek unveiled its first set of models - DeepSeek Coder, DeepSeek LLM, and DeepSeek Chat - in November 2023. But it wasn’t till final spring, when the startup launched its subsequent-gen DeepSeek-V2 family of models, that the AI industry started to take discover.


maxres.jpg The applying demonstrates multiple AI models from Cloudflare's AI platform. Note: All models are evaluated in a configuration that limits the output size to 8K. Benchmarks containing fewer than one thousand samples are tested a number of occasions using varying temperature settings to derive sturdy last results. It excels in understanding and producing code in multiple programming languages, making it a precious software for developers and software program engineers. Capabilities: GPT-4 (Generative Pre-trained Transformer 4) is a state-of-the-artwork language model recognized for its deep understanding of context, nuanced language era, and multi-modal skills (textual content and image inputs). Image Credit: DeekSeek 깃헙. Competing onerous on the AI entrance, China’s DeepSeek AI introduced a brand new LLM referred to as DeepSeek Chat this week, which is extra highly effective than any other current LLM. You need to use that menu to chat with the Ollama server with out needing an online UI. Here is how you can use the Claude-2 mannequin as a drop-in alternative for GPT models. All bells and whistles aside, the deliverable that matters is how good the fashions are relative to FLOPs spent. They are passionate in regards to the mission, and they’re already there.

이 게시물에 달린 코멘트 0