|
메타에 따르면 라마 3.3 70B는 지난 4월 출시된 '라마 3'의 하위 버전으로 기존 라마 3.1 405B와 유사한 성능을 보이면서도 비용 면에서는 훨씬 저렴하다. 매개변수(파라미터)가 수천억개 이상인 LLM(대형언어모델)과 달리 700억개의 매개변수를 갖추고 있는 중형모델이다.
아메드 알-달 메타 생성형 AI 부사장은 X(옛 트위터)를 통해 "라마 3.3 70B는 매개변수가 4050억개인 모델의 성능을 제공하지만 실행이 더 쉽고 비용은 더 효율적이다"라며 "구글의 제이나미 프로, 오픈AI의 GPT-4o와 비슷한 수준의 성능을 보였다"고 밝혔다.
가격 경쟁력에서도 뛰어나다. 라마 3.3 70B는 입력 토큰(자연어 처리 모델에서 처리되는 텍스트의 기본 단위) 100만개당 0.1달러, 출력 토큰(AI 모델이 처리 결과로 생성하거나 반환하는 텍스트의 기본 단위) 100개당 0.6달러로, 기존 AI 모델 이용 가격의 8분의 1 이하 수준이다.
마크 저커버그 메타 CEO(최고경영자)는 자신의 SNS에 "라마 3.3 70B이 메타의 AI 챗봇 등 다양한 서비스에서 활용될 것"이라며 "현재 메타 AI 챗봇의 MAU(월간활성이용자)가 6억명에 이른다. 메타는 이를 통해 자사 AI 생태계를 더욱 확장해나갈 것"이라고 전했다.
또한 그는 내년 출시 예정인 '라마 4'는 더욱 강력한 기능을 제공할 것이라고 밝혔다.