Meta AI가 1,600개 이상의 언어를 지원하는 새로운 자동 음성 인식(ASR) 기술인 ‘옴니링구얼 ASR(Omnilingual ASR)’을 공개했습니다. 이 기술의 주요 내용은 다음과 같습니다.
핵심 기능 및 성과:
광범위한 언어 지원: 1,600개 이상의 언어에 대한 음성-텍스트 변환을 지원합니다. 이는 기존 ASR 시스템이 지원하지 못했던 500개 이상의 ‘저자원 언어'(데이터가 부족한 언어)를 포함하는 규모입니다.
높은 정확도: 대규모(최대 7B 파라미터) 모델과 방대한 학습 데이터를 기반으로, 적은 학습 데이터로도 높은 인식 정확도를 달성합니다.
확장성 (In-context Learning): LLM(거대 언어 모델)에서 영감을 받은 아키텍처를 채택하여, ‘제로샷 학습’ 또는 ‘인컨텍스트 학습’이 가능합니다. 이는 모델이 공식적으로 학습하지 않은 새로운 언어라도 단 몇 개의 예시(샘플)만으로도 인식하고 확장할 수 있음을 의미합니다.
기술적 특징:
자기 지도 학습(Self-supervised learning): 라벨이 지정된 데이터가 적더라도 음성의 보편적인 패턴을 학습할 수 있습니다.
인코더-디코더 아키텍처: 견고한 음성 표현을 학습하는 인코더와 이를 텍스트로 변환하는 디코더 구조를 사용합니다.
다양한 모델 크기: 클라우드 환경을 위한 고성능 7B 모델부터 저전력 기기(온디바이스)에서 실행 가능한 300M 크기의 경량 모델까지 다양한 버전을 제공합니다.
의의 및 목표:
오픈소스 및 커뮤니티 기반: 옴니링구얼 ASR 모델과 ‘옴니링구얼 ASR 코퍼스’ 데이터셋을 아파치 2.0 라이선스로 오픈소스로 공개했습니다.
디지털 접근성 향상: 전 세계의 더 많은 언어 커뮤니티가 음성 기술의 혜택을 누릴 수 있도록 장벽을 낮추고, 커뮤니티가 직접 자신의 언어를 기술에 추가할 수 있도록 지원하는 것을 목표로 합니다.
EuroLLM은 유럽 내 연구기관이 공동 개발한 24개 공식 EU 언어 지원 대형언어모델(LLM) 로, 유럽의 AI 주권과 기술 자립을 목표로 함
유럽연합의 공식 언어는 총 24개: 불가리아어, 크로아티아어, 체코어, 덴마크어, 네덜란드어, 영어, 에스토니아어, 핀란드어, 프랑스어, 독일어, 그리스어, 헝가리어, 아일랜드어, 이탈리아어, 라트비아어, 리투아니아어, 몰타어, 폴란드어, 포르투갈어, 루마니아어, 슬로바키아어, 슬로베니아어, 스페인어, 스웨덴어. 실제 사용 RAWDATA 미공개
9B 파라미터 모델로, 35개 언어에서 4조 개 이상의 토큰으로 학습되어 질문응답, 요약, 번역 등 언어 과제에 강점을 보인다고 하지만…실제 성능은…별로라는 평.
EuroLLM 9B Base는 파인튜닝용으로 공개되었으며, EuroLLM 9B Instruct는 대화형 지시 수행 기능을 갖춘 버전으로 Hugging Face에서 사용 가능
바로: 현재 한국에서 진행중인 승자 선정형으로 진행된 것으로 보임. 승자 선정형은 정부 정보 비대칭, 시강 왜곡, 도덕적 해이 등의 분명한 문제가 있음. 그런데 한국처럼 기본적인 체급이 현실적으로 한계가 있는 상황에서는 반도체 시장 처럼 승자 선정형으로 갈 수 밖에 없는 한계도 분명히 있음…
한국 현대시의 섬세한 감정을 AI가 이해할 수 있을까요? 한국학중앙연구원 디지털인문학연구소에서 개발한 KPoEM(Korean Poetry Emotion Mapping) 데이터셋이 이 질문에 답을 제시합니다.
KPoEM은 김소월, 윤동주, 이상, 임화, 한용운 등 한국의 대표 시인 5인의 시작품 483편을 44개의 감정 범주로 세밀하게 분석한 최초의 한국시 감정 데이터셋입니다.
연구 책임자: 김병준 교수 (한국학중앙연구원 한국학대학원 인문정보학)
연구 보조원: 지해인(박사과정), 임이로(석사과정), 구슬(석사과정)
라벨러(Annotator): 정송이(박사과정), 윤종훈(석사졸업)
논문 정보
Lim, I., Ji, H., & Kim, B. (2025). Decoding the Poetic Language of Emotion in Korean Modern Poetry: Insights from a Human-Labeled Dataset and AI Modeling (No. arXiv:2509.03932). arXiv. https://doi.org/10.48550/arXiv.2509.03932
왜 KPoEM이 필요한가?
기존의 한국어 감정 분석 데이터셋인 KOTE(Korean Online That-gul Emotions)는 온라인 댓글 5만 건을 기반으로 구축되었습니다. KOTE는 일상적인 온라인 텍스트 분석에는 유용하지만, 문학 텍스트 특히 시의 감정을 분석하는 데는 근본적인 한계가 있었습니다:
KOTE의 한계
언어 스타일: 인터넷 댓글의 직접적이고 단순한 표현 vs 시의 은유적이고 다층적인 표현
감정 표현: 댓글의 즉각적인 감정 반응 vs 시의 절제되고 함축적인 정서
문맥 이해: 댓글의 단편적 맥락 vs 시의 전체적 의미 구조와 상징
KPoEM은 이러한 한계를 극복하고자 시 텍스트에 특화된 최초의 한국어 감정 데이터셋으로 개발되었습니다.
# 시 텍스트 감정 분석 예시
example = '''
나의 생은 미친듯이 사랑을 찾아 헤매었으나
단 한번도 스스로를 사랑하지 않았노라
'''
# threshold=0.3 설정 시, 확률값이 0.3 이상인 감정만 반환
result = kpoem_model.analyze(example, threshold=0.3)
Google DeepMind의 고대 로마 문자 복원 AI 모델인 Aeneas(아이네이아스)입니다.
Aeneas는 고대 비문을 해석하고, 속성을 부여하며, 파편화된 텍스트를 복원하는 데 특화된 최초의 AI 모델입니다. 이 모델은 로마 시대 비문의 복잡하고 시간이 많이 소요되는 작업을 가속화하여, 수천 개의 라틴어 비문에서 텍스트 및 문맥적 유사성을 몇 초 만에 검색할 수 있도록 설계되었습니다. 텍스트와 이미지 정보를 모두 분석하여 텍스트의 지리적 출처를 결정하고, 누락된 텍스트의 간격을 복원할 수 있습니다.
Aeneas는 University of Nottingham, Warwick, Oxford, Athens University of Economics and Business (AUEB)의 연구원들과 공동 개발되었으며, 생성형 AI가 역사가들이 대규모로 유사성을 식별하고 해석하는 데 어떻게 도움이 될 수 있는지 탐구하는 광범위한 노력의 일환입니다. 이 모델은 이전 모델인 Ithaca를 기반으로 구축되었으며, 역사가들이 텍스트를 해석하고 맥락화하며, 고립된 단편에 의미를 부여하고, 고대 역사에 대한 이해를 높이는 데 기여합니다.
Aeneas의 대화형 버전은 Predicting the Past 웹사이트에서 연구원, 학생, 교육자 및 박물관 전문가에게 무료로 제공되며, 추가 연구를 위해 코드와 데이터 세트도 오픈 소스로 공개되었습니다.
역사 기록물에는 수 많은 “공백”이 존재한다. 그런 “공백” 중에서 텍스트의 식별불가 혹은 식별추정 문자를 탐색하는 것은 가장 기본 중에 하나이다. 딥러닝으로 당장은 돈이 되지 않는 (하지만 머리를 잘 굴리면 사실 돈이 될 수 있는) 연구를 진행하는 Google DeepMind에 박수를 보낸다.
한국 사료에도 수 많은 “공백”이 존재하며, “좋은 기계가독형데이터만 있으면” 해당 코드를 적용해 볼 수 있다. 다만, 현재는 해당 코드를 돌릴 수 있는 “좋은 기계가독형데이터”가 없고, “인간가독형데이터”만 존재한다. 그런데 좋은 기계가독형데이터를 만드는 것은 결코 쉽지 않다..ㅠㅠ
이 문서는 개인의 생애 정보를 체계적으로 기술하기 위한 데이터 모델인 BioCRM에 대해 설명하고 있습니다. BioCRM은 특히 프로소포그래피(prosopography, 인물군 연구) 분야에서 활용될 수 있도록 설계되었습니다.
BioCRM의 주요 목표 및 활용 사례:
목표: 다양한 출처의 전기 정보를 조화시키고 상호 연결할 수 있는 의미론적 데이터 모델을 제공하는 것입니다. 이를 통해 인물, 개인 관계, 직업, 다양한 역할을 가진 참여자가 있는 사건 등 기본적인 인물 데이터를 표현할 수 있습니다.
활용 사례:
정보 검색: 특정 특징을 공유하는 인물 집단을 찾아낼 수 있습니다. 예를 들어, 1800년에서 1850년 사이에 영국에서 태어나 특정 직업을 가졌던 남성들을 찾는 경우입니다. 이러한 집단은 추가 분석이나 다른 집단과의 비교 대상이 될 수 있습니다.
네트워크 분석: 특정 기준에 따라 인물 네트워크를 찾아내고, 이를 네트워크 분석 도구나 시각화를 통해 분석할 수 있습니다.
지식 발견: 데이터 내에서 이전에 알려지지 않았던 특정 관심 특징을 공유하는 숨겨진 인물 집단을 자동으로 식별할 수 있습니다.
동적 분석: 그룹의 구조와 변화하는 구성, 그리고 개인이나 하위 그룹의 변화하는 역할을 분석할 수 있습니다.
설계 원칙:
BioCRM은 생애 이야기를 사건 기반 접근 방식으로 모델링합니다. 즉, 개인의 삶은 출생부터 사망까지 시공간적으로 연결된 사건들의 연속으로 간주됩니다. 출생 전이나 사후 사건도 포함될 수 있습니다.
혼동을 피하기 위해 BioCRM은 개인의 속성, 인물 간의 관계, 그리고 인물이 다양한 역할로 참여하는 사건을 명확하게 구분합니다.
속성: 시간과 공간에 독립적으로 개인을 특징짓는다고 가정하는 속성 (예: 직업)
관계: 인물들 사이에 설정되며 시간과 공간에 독립적으로 인물들을 특징짓는다고 가정하는 관계 (예: 아버지-자식 관계)
역할: 인물이 사건에 참여하는 방식을 표현 (예: 세례 후보자)
사건: 시간과 공간에서 발생하며 다양한 역할의 참여자를 포함
이 모델은 CIDOC CRM의 도메인 특정 확장으로, 전기 데이터뿐만 아니라 다른 문화유산(CH) 데이터에도 적용 가능합니다.
지속적인 단일 역할(unary roles), 지속적인 이진 관계(binary relationships), 그리고 참여자들이 역할 개념 계층으로 모델링된 다양한 역할을 맡을 수 있는 지속 사건(perduring events)을 구분합니다.
핵심 클래스:
BioCRM 모델의 핵심 클래스는 다음과 같은 계층 구조를 가집니다: Entity, Actor (Person, Group), Actor_Appellation, Document, Entity_Role (Actor_Role, Thing_Role), Event, Place, Thing, Time-Span. 이들 간의 관계는 다이어그램으로 표현되어 있습니다.
주요 정보 표현 방식:
인물 (Person):bioc:Person (CIDOC CRM의 E21_Person 하위 클래스)의 인스턴스로 표현됩니다. 핵심 데이터로는 호칭(이름, 식별자), 출생 및 사망 시점과 장소, 그리고 단일 역할(성별, 국적, 직업), 관계(가족, 사회, 그룹), 참여 사건 등이 있습니다.
호칭 (Appellations): 한 인물은 여러 호칭을 가질 수 있으며 (예: 필명, 별명), 이는 bioc:Actor_Appellation의 하위 클래스로 표현됩니다. rdfs:label 속성으로 이름의 문자열 형식을 제공하고, 언어 태그를 사용해 다른 언어로의 음차를 나타낼 수 있습니다. 결혼 등으로 인해 이름이 유효한 시기가 다를 수 있으며, 이는 cidoc:P4_has_time-span을 사용해 표현합니다.
출생 및 사망 (Birth and Death): 출생 및 사망 사건(cidoc:E67_Birth, cidoc:E69_Death)으로 표현되며, 시간과 장소 정보를 포함할 수 있습니다. 출생 사건에는 부모 정보도 포함될 수 있습니다.
단일 역할 (Unary Roles): 성별, 국적, 직업 등은 bioc:bearer_of 속성을 사용하여 인물과 단일 역할을 연결하여 표현합니다. 이러한 역할은 시간과 공간적 맥락을 갖는 사건(예: 고용)을 통해 구체화될 수 있습니다. 예를 들어, 존 F. 케네디는 1961-1963년에 미국에서 대통령 역할을 수행했습니다.
성별: bioc:has_gender 속성 사용 (예: 남성, 여성)
국적: bioc:has_nationality 속성 사용 (예: 영국인, 핀란드인)
직업: bioc:has_profession 속성 사용 (예: 철학자, 상인)
관계 (Relationships): 가족 관계(어머니, 사촌 등)나 사회적 관계(스승-제자, 아는 사이 등)와 같은 인물 간의 고유한 관계도 역할 기반 패턴을 사용합니다. 행위자(개인 또는 그룹)를 bioc:has_relation의 하위 속성 중 하나를 사용하여 다른 행위자의 역할에 연결함으로써 관계를 표현합니다. 단일 역할과 마찬가지로 관계도 사건을 사용하여 시간 및 공간 정보로 구체화될 수 있습니다. 예를 들어, 존 F. 케네디는 1953-1963년에 재클린 케네디의 배우자였습니다.
사건 (Events): 생애의 개별 사건들은 bioc:Event (CIDOC CRM의 E5_Event 하위 클래스)의 하위 클래스로 표현됩니다. 사건은 시간(cidoc:P4_has_time-span), 장소(cidoc:P7_took_place_at), 참여한 행위자(cidoc:P11_had_participant), 관련된 다른 자원(cidoc:P12_occurred_in_the_presence_of) 등의 관점에서 기술됩니다. 참여 행위자 및 기타 자원의 값은 역할 클래스의 인스턴스입니다. 이를 통해 한 사람이 여러 사건에 서로 다른 역할로 참여할 수 있으며, 각 역할은 추가 속성으로 구체화될 수 있습니다. 예를 들어, 특정 강의 사건은 강사 역할의 인물, 학생 역할의 인물, 시간, 장소 정보 등을 포함할 수 있습니다. 사건은 단일 역할(예: 직업)이나 가족 관계를 더욱 구체화하는 데에도 사용될 수 있습니다.
계층 구조:
사건 계층 (Event Hierarchy): 사건을 나타내는 클래스들은 계층 구조로 구성됩니다 (예: bioc:Event 아래에 :Ecclesiastical_Event, :Educational_Event 등). 예를 들어, :Ecclesiastical_Event는 :Baptism(세례), :Confirmation(견진) 등으로 세분화될 수 있으며, 각 사건 유형에는 관련된 역할들이 정의됩니다 (예: 세례의 경우 주례자, 세례 후보자, 대부, 대모 등).
역할 계층 (Role Hierarchy): 사건에 참여하는 행위자의 역할을 나타내는 클래스들도 계층 구조를 가집니다 (예: bioc:Entity_Role 아래에 bioc:Actor_Role (다시 bioc:Unary_Role, bioc:Binary_Relationship_Role, bioc:Event_Role로 나뉨), bioc:Thing_Role). 각 사건 클래스에는 해당 사건에 참여할 수 있는 역할들을 제한하기 위해 OWL의 owl:allValuesFrom 제한을 사용하여 허용된 역할 클래스를 지정하는 것이 권장됩니다. 예를 들어, :Baptism 사건에는 :Baptism_Actor_Role이라는 클래스에 속하는 역할들만 참여할 수 있도록 정의할 수 있습니다. 이러한 역할 계층은 사건 간 역할 공유를 용이하게 하고 역할 구조 변경을 쉽게 만듭니다.
이 모델은 데이터 주석 작성자가 올바른 역할만 사용하도록 안내하고, 질의 시 역할에 있는 자원을 찾는 데 새로운 역할 클래스를 사용할 수 있게 합니다. bioc:inheres_in 속성은 시간과 무관한 역할(단일 역할 및 한정자 없는 이진 관계)과 시간적 역할(사건을 사용하여 한정됨) 모두를 표현하는 데 사용되며, 이는 모델의 단순성을 위한 의도적인 결정입니다.
다양한 모델: Mistral, Llama 2, Code Llama, Orca Mini, Vicuna, WizardLM 등, 다양한 목적과 성능을 가진 모델들이 등록되어 있습니다. 각 모델은 특화된 분야나 작업에 따라 최적의 성능을 발휘합니다. 예를 들어, Mistral은 일반적인 대화, Llama 2는 창의적인 글쓰기, Code Llama는 코드 생성, Orca Mini는 자원이 제한된 환경, Vicuna는 고품질 대화, WizardLM은 지시 수행에 강점이 있습니다.
모델 정보: 각 모델에 대한 설명, 크기, 파라미터 수, 다운로드 수, 성능 지표 등의 정보를 제공합니다. 이러한 정보를 통해 사용자는 자신의 필요와 환경에 맞는 모델을 선택할 수 있습니다.
모델 사용법: 각 모델을 Ollama에서 어떻게 다운로드하고 실행하는지에 대한 가이드를 제공합니다. ollama run [모델 이름]과 같은 간단한 명령어를 통해 쉽게 모델을 실행할 수 있습니다.
검색 및 필터링: 원하는 모델을 쉽게 찾을 수 있도록 검색 및 필터링 기능을 제공합니다. 모델 이름, 크기, 태그 등을 기준으로 검색할 수 있습니다.
커뮤니티 참여: 사용자들이 새로운 모델을 제안하거나 기존 모델에 대한 피드백을 제공할 수 있는 공간을 제공합니다.
출처: “”https://ollama.com/library” 에 대한 설명”. Gemini Advanced 2.0 Experimental Advanced. 2025.01.31.
안녕하세요, 여러분! 딥러닝, 특히 자연어 처리(NLP) 분야에 관심 있는 분들이라면 “BERT”라는 이름을 한 번쯤은 들어보셨을 겁니다. 2018년에 등장한 BERT는 트랜스포머(Transformer) 기반 모델로, 뛰어난 성능을 보여주며 NLP 분야에 혁명을 가져왔죠. 하지만, BERT는 거대한 모델 크기와 높은 컴퓨팅 자원으로 인해 실무 적용에 어려움을 겪기도 했습니다.
오늘 소개해드릴 **”ModernBERT”**는 이러한 BERT의 한계를 극복하고, 효율성과 성능을 모두 잡은 최신 NLP 모델입니다. 마치 최신 스마트폰처럼, 더욱 빠르고 강력해진 ModernBERT! 지금부터 ModernBERT의 매력 속으로 함께 빠져봅시다!
1. ModernBERT, 무엇이 달라졌을까요? (기존 BERT와의 비교)
ModernBERT는 기존 BERT의 아키텍처를 기반으로 여러 가지 혁신적인 기술들을 적용하여 성능과 효율성을 크게 향상시켰습니다. 주요 변경 사항은 다음과 같습니다.
특징
BERT
ModernBERT
모델 크기
크고 무거움 (110M/340M 파라미터)
경량화 & 모듈화 (선택적 크기 조정 가능)
학습 속도
느림
빠름 (최대 2배 이상)
추론 속도
느림
빠름 (최대 3배 이상)
메모리 사용량
높음
낮음 (최대 50% 감소)
하드웨어 의존도
높음 (고성능 GPU 필요)
낮음 (CPU에서도 효율적 실행 가능)
특화된 아키텍처
범용적
다양한 태스크에 최적화된 모듈 제공
학습 데이터
대규모 일반 데이터
일반 데이터 + 도메인 특화 데이터 활용
토큰화 방식
WordPiece
SentencePiece 및 BPE 등 유연한 토큰화 지원
Sheets로 내보내기
핵심은 “효율성”입니다! ModernBERT는 모델 경량화, 최적화된 학습/추론 알고리즘, 효율적인 하드웨어 활용을 통해 BERT보다 훨씬 빠르고 가볍게 동작합니다.
2. ModernBERT의 기술적 핵심, 자세히 살펴보기
ModernBERT의 놀라운 성능 향상은 다음과 같은 핵심 기술들 덕분에 가능했습니다.
지식 증류 (Knowledge Distillation): 큰 “선생님” 모델 (Teacher Model)의 지식을 작은 “학생” 모델 (Student Model)에게 전달하여, 작은 모델도 큰 모델과 유사한 성능을 내도록 학습합니다. ModernBERT는 BERT와 같은 대형 모델에서 지식을 추출하여 효율적인 작은 모델을 만듭니다.
양자화 (Quantization): 모델의 가중치와 활성화 값을 낮은 정밀도 (예: 32비트 -> 8비트)로 표현하여 모델 크기를 줄이고 계산 속도를 향상시킵니다. ModernBERT는 학습 후 양자화(Post-Training Quantization)와 양자화 인지 학습(Quantization-Aware Training)을 모두 지원하여 성능 저하를 최소화합니다.
가지치기 (Pruning): 모델에서 중요도가 낮은 연결(connections)을 제거하여 모델을 경량화합니다. ModernBERT는 구조적 가지치기(Structured Pruning)를 통해 추론 속도를 크게 향상시킵니다.
모듈화 (Modularization): ModernBERT는 재사용 가능한 모듈로 구성되어 있어, 특정 태스크에 필요한 모듈만 선택적으로 사용하여 모델을 구성할 수 있습니다. 이를 통해 모델 크기를 더욱 줄이고, 태스크별 최적화된 성능을 얻을 수 있습니다.
개선된 학습 기법: ModernBERT는 더 나은 옵티마이저(LAMB, AdamW 등), 학습률 스케줄링(Learning Rate Scheduling), 데이터 증강(Data Augmentation) 등을 활용하여 학습 속도와 성능을 개선했습니다.
효율적인 토큰화:SentencePiece와 Byte Pair Encoding (BPE) 와 같은 최신 토큰화 기법을 사용하여 어휘 크기를 줄이고 희귀 단어 처리 능력을 향상시켰습니다.
3. ModernBERT는 인코더 전용 모델?
ModernBERT는 인코더 전용 모델로 설계되었습니다. 즉, BERT와 마찬가지로 입력 텍스트를 이해하고 문맥을 파악하는 데 강점을 가지고 있습니다. 이는 다음과 같은 장점을 제공합니다.
다양한 다운스트림 태스크에 활용 가능: ModernBERT의 인코더는 문장 분류, 질의응답, 개체명 인식, 기계 독해 등 다양한 NLP 태스크에 적용될 수 있습니다.
전이 학습 (Transfer Learning)에 용이: 대규모 데이터로 사전 학습된 ModernBERT의 인코더는 특정 태스크에 맞게 미세 조정(Fine-tuning)하여 적은 양의 데이터로도 높은 성능을 달성할 수 있습니다.
효율적인 특징 추출 (Feature Extraction): ModernBERT의 인코더는 입력 텍스트에서 고품질의 특징 벡터를 추출할 수 있으며, 이 특징 벡터는 다른 기계 학습 모델의 입력으로 사용될 수 있습니다.
4. ModernBERT, 미래 NLP의 주인공이 될까요?
ModernBERT는 BERT의 한계를 극복하고, 실용성과 성능을 모두 갖춘 차세대 NLP 모델입니다. 경량화, 모듈화, 최적화된 알고리즘을 통해 더 빠르고, 더 가볍고, 더 효율적으로 동작합니다.
특히, ModernBERT는 다음과 같은 분야에서 큰 활약을 할 것으로 기대됩니다.
모바일 및 임베디드 기기에서의 NLP: 제한된 컴퓨팅 자원을 가진 환경에서도 효율적으로 동작하여, 스마트폰, IoT 기기 등에서 자연어 처리 기능을 제공할 수 있습니다.
실시간 NLP 서비스: 빠른 추론 속도를 바탕으로 실시간 번역, 챗봇, 감성 분석 등의 서비스를 제공할 수 있습니다.
자원 제약적인 환경에서의 NLP 연구: ModernBERT는 학계나 스타트업과 같이 컴퓨팅 자원이 제한적인 환경에서도 고성능 NLP 모델을 연구하고 개발할 수 있는 길을 열어줍니다.
출처: Gemini Advanced 2.0 Experimental Advanced. “”ModernBERT”에 대해서, 기술적인 내용을 포함하고, 기존 BERT와의 비교 및 인코더 전용 모델의 관점도 포함하여, 블로그 소개글 작성해.” 2024.12.23.
바로: 기존에 있는 텍스트를 주로 연구하는 입장에서는 NLU에 적합한 인코딩 모델이 더 좋음. 근데 다국어 지원하는지? 정말 괜찮은지…모르겠…. 언젠가… 12월의 질주가 끝나면… (근데 1월에도 12월만큼은 아니지만, 질주가 예정되어 있…)