普通视图

Received before yesterday

AI시대 번역의 미래 -민형배, 한국문학번역원장

作者Baro
2025年11月17日 01:43

번역가 VS AI번역 결과 띄우자 얼떨떨한 한국문학번역원장 “통역사 이제 짐 싸야하나?”

바로: 다양한 생각이 들지만, 이제 해야하는 일은 1) 할루시네이션 등의 문제 해결을 위한 최소한의 “표준”이 아닌 “권장” 번역 학습 데이터와 2) 개성을 감미한 다양한 개인 취향 적용을 위한 학습 데이터 및 그 시스템 구현이 아닐까 싶음.

게시물 AI시대 번역의 미래 -민형배, 한국문학번역원장KADH / 한국디지털인문학협의회에 처음 등장했습니다.

Ollama 웹 검색 API 출시

作者Baro
2025年9月29日 22:55

https://ollama.com/blog/web-search

Ollama’s web search
  • Ollama가 최신 웹 정보 검색 기능을 API로 공개해 모델의 환각을 줄이고 정확도 향상을 지원하는 기능을 제공
  • 무료 계정에도 넉넉한 무료 검색 할당량이 포함되며, 고빈도 사용자는 Ollama Cloud를 통해 더 높은 제한을 이용 가
  • REST API 기반으로 Python, JavaScript 라이브러리와 통합되어, OpenAI의 gpt-oss 같은 모델이 장시간의 리서치 작업 수행 가능
  • web_search와 web_fetch 기능으로 수천 토큰 단위의 결과를 반환하며, MCP 서버를 통한 Cline, Codex, Goose 등 다양한 툴과 연동 지원
  • 이를 활용해 검색 에이전트를 직접 구축할 수 있어, AI 모델이 최신 데이터와 상호작용하는 범용성을 크게 확장가능

GeekNews https://news.hada.io/topic?id=23332

게시물 Ollama 웹 검색 API 출시KADH / 한국디지털인문학협의회에 처음 등장했습니다.

구글 공공데이터 MCP 서버 출시

作者Baro
2025年9月29日 22:50

구글은 다양한 공공 데이터를 통합하여 제공하는 지식 그래프(Knowledge Graph)인 ‘데이터 커먼즈(Data Commons)’ Model Context Protocol (MCP) 서버 새롭게 추가했다고 발표했습니다. 데이터 커먼즈는 미국 인구조사국, 세계은행, 유로스타트 등 전 세계 수많은 기관의 방대한 공공 데이터를 schema.org를 기반으로 표준화된 형식으로 통합한 거대한 지식 그래프입니다.

이를 통해서, 신뢰 받을 수 있는 고품질의 공공데이터를 모든 LLM에 직접 연결할 수 있게 되었습니다. 인문학의 입장에서 신뢰 받을 수 있는 고품질의 공공데이터 편찬의 가능성을 볼 수 있다고 생각됩니다.

https://developers.googleblog.com/en/datacommonsmcp

BLOG-HERO-A2

게시물 구글 공공데이터 MCP 서버 출시KADH / 한국디지털인문학협의회에 처음 등장했습니다.

Google Jules: github 연동 비동기형 코딩 에이전트

作者Baro
2025年5月27日 20:18

https://jules.google

GitHub와 연동되어 버그 수정, 문서 추가, 기능 개발을 자동으로 수행하는 비동기형 코딩 에이전트

  • Jules는 GitHub와 연동되어 버그 수정, 문서 추가, 기능 개발을 자동으로 수행하는 비동기형 코딩 에이전트
  • 사용자는 리포지토리와 브랜치를 선택하고 자세한 프롬프트만 작성하면, 나머지는 Jules가 클라우드 VM에서 처리함
  • 테스트 실행 및 생성PR 생성변경사항 diff 제공오디오 요약 기능도 제공됨
  • 내부적으로 Gemini 2.5 Pro 모델을 사용해 코드 이해 및 수정을 수행함
  • GitHub Copilot 코딩 에이전트와 유사하지만, Google 계정 기반으로 제공되고 UI 중심의 워크플로우

Jules 개요

주요 기능

  • GitHub 연동: 리포지토리를 가져와 브랜치를 생성하고 Pull Request(PR)를 자동으로 작성함
  • 클라우드 가상머신: Jules는 코드를 클라우드 VM에 클론하여 작업을 수행하고, 변경사항이 작동하는지 검증함
  • 테스트: 기존 테스트를 실행하거나, 테스트가 없을 경우 새로 생성함
  • 작업 플랜 제공: 변경 전 작업 계획과 이유, 변경 diff를 사용자에게 먼저 보여줌
  • 오디오 요약: PR 변경사항을 음성 요약으로 제공하여 빠르게 이해 가능함

출처: https://news.hada.io/topic?id=21013

생성형 및 양자 컴퓨팅의 미래

作者Baro
2025年5月18日 21:09

이 자료들은 IBM 연구진들의 발표 내용을 담고 있으며, 계산의 미래와 관련된 혁신을 강조합니다. 특히, 거대 언어 모델(LLMs)과 같은 인공지능 분야에서의 발전을 프롬프트 엔지니어링에서 벗어나 제너레이티브 컴퓨팅으로 전환함으로써 효율성과 보안성을 높이는 방안을 제시합니다. 또한, 양자 컴퓨팅의 최신 성과와 함께, 양자 이점을 달성하기 위한 로드맵과 고성능 컴퓨팅 및 인공지능과의 결합을 통한 양자 중심 슈퍼컴퓨팅의 중요성을 논의합니다. 궁극적으로 이러한 다양한 컴퓨팅 방식들을 통합하여 개별 기술의 한계를 뛰어넘는 새로운 기능과 워크플로우를 창출하는 것을 목표로 합니다.

+ NotebookLM Plus. 2025.05.18.

코맨트: 현재 진행 중인 컴퓨팅 기술의 발전에 대한 영상을 공유드립니다. 역사학의 주된 플랫폼에 어떤 영향력을 미칠지는 모르겠으나, 산업계에서 무슨 일이 벌어지고 있는지 확인하는 건 도움이 될 것 같습니다.

잘 가… Stack overflow

作者Baro
2025年5月18日 21:07

https://blog.pragmaticengineer.com/stack-overflow-is-almost-dead

Stack Overflow(SO)는 개발자들에게 유용한 자료로서 그 위상이 하락하고 있다는 점을 논합니다. Stack Overflow 커뮤니티는 매우 친절하고 도움이 되었으며, 본질적으로 무료로 일해왔습니다. 며칠이 걸릴 수 있는 많은 버그들이 결국 SO를 통해 해답을 찾았습니다. 그러나 ChatGPT와 같이 몇 분 안에 답변을 제공할 수 있는 AI 도구의 등장으로 SO의 관련성은 줄어들고 있습니다.

많은 사용자들이 SO의 엄격한 규칙과 때로는 도움이 되지 않거나 공격적인 커뮤니티 행동 때문에 SO에 좌절감을 느껴왔습니다. 일부 사용자들은 질문이 별다른 이유 없이 닫히거나 부정적인 댓글을 받는다고 생각합니다. 개인적인 도움을 제공하기보다는 검색 가능한 지식 기반을 구축하는 데 중점을 두는 방식은 사이트를 환영받지 못하는 곳으로 느끼게 할 수 있습니다. SO는 질문과 답변의 높은 기준을 유지하는 것을 목표로 하지만, 이러한 접근 방식은 코딩 문제에 대한 즉각적인 해결책을 찾는 사용자들을 멀어지게 할 수 있습니다.

이러한 문제점에도 불구하고, SO는 여전히 위키피디아 문서보다 많은 질문을 보유하고 있는 방대한 양의 가치 있는 정보를 가지고 있습니다. 일부에서는 새로운 질문이 줄어든 현재 SO의 상태가 기존 콘텐츠를 더 잘 검토하고 유지 관리할 수 있게 한다고 주장합니다. SO의 엄격한 접근 방식이 품질 유지에 필요한지, 아니면 사용자 참여 감소에 기여하고 있는지에 대한 논쟁은 계속되고 있습니다.

+ Gemini 2.5 Pro(preview). 2025.05.18.

바로: 저도 스택에 가본지가 오래된듯 합니다. 검색할 시간에 LLM에 질문을 하고 있군요. 그런데 바이브 코딩까지도 논의하는 시대에 사람간의 질문-응답을 통해서 구현되는 커뮤니티는 더 이상 필요 없을까? 모르겠습니다.

수준 이하의 논문은 공공데이터와 생성AI 탓?!

作者Baro
2025年5月16日 14:04

동아사이언스. “수준 이하 과학논문 급증…공공데이터·AI 활용 탓”. 2025.05.15. https://m.dongascience.com/news.php?idx=71682

그 결과 사이언티픽 리포츠, BMC 공중보건, BMJ 오픈 등을 포함한 147개 학술지에 341편의 유사한 논문들이 확인됐다. 

연구팀은 논문 발표가 급증하기 시작한 시점 챗GPT와 같은 AI 챗봇이 널리 보급되기 시작했다는 점에 주목했다. 돈을 받고 논문을 제작해 연구 실적을 올려주는 조직인 ’논문 공장(paper mill)‘의 활동이 이 시기 활발해졌다는 점도 저품질 논문이 늘어난 원인일 것으로 보았다.  

공공 데이터 세트가 악용될 가능성이 높아졌다는 의미다. 공공 데이터 세트는 파이썬이나 R과 같은 코딩 언어로 쉽게 불러와 활용할 수 있다는 장점이 있지만 품질 낮은 논문들이 쏟아지는 원인이 되기도 한다는 것이다. 

바로: 난가?!…. 각설하고-0-! 생성형AI나 공공데이터셋 자체에 대한 오해가 생기지 않았으면 한다. 문제는 “악용” 아닐까?!

플라우드 노트 PLAUD NOTE 64GB

作者Baro
2025年5月6日 19:40

https://recorder.buzz/product/%ED%94%8C%EB%9D%BC%EC%9A%B0%EB%93%9C-%EB%85%B8%ED%8A%B8-plaud-note-64gb/63/category/1/display/2

바로: 재미 있는 제품이군요. 현재의 AI 기능이나 최상위급의 스마트폰에서는 제공하는 기능들이긴 합니다. 다만, 녹음만을 위해서 최적화되었다는 점에서 유의미한 측면이 분명히 있어 보입니다. 할인을 해서 20만원 정도인데, 아직도 AI 기술은 따라가기 어려울 정도로 빠르게 변화하고 있기에, PC나 스마트폰이 아닌 독립적인 하드웨어 제품으로 얼마나 유의미한 상업적인 성과를 보일지는 잘 모르겠습니다. 그런 의미에서 제 입장에서는 굳이 구매하지는 않을듯 합니다. 지금 쓰는 장비와 서비스로 대체 가능하니까요.

아…혹시나 해서 말씀 드리면, 광고 아닙니다. -0-;;

생성AI 데모앱 – Google AI Studio

作者Baro
2025年4月24日 23:02

https://aistudio.google.com/apps

Gemini를 활용한 생성AI 데모앱을 제공하는 페이지가 만들어짐. 간단하지만 다양한 영감?!을 얻을 수 있음.

공식 소개 페이지: Making it easier to build with the Gemini API in Google AI Studio

https://developers.googleblog.com/en/making-it-easier-to-build-with-the-gemini-api-in-google-ai-studio

Github: Gemini API Cookbook

https://github.com/google-gemini/cookbook

바로: 간략하게 가능성을 보여주는 것 좋음. 근데 결국 API 많이 사용하라는건가…돈…ㅠㅠ

생성형AI 환상 순위: LLM Confabulation (Hallucination) Leaderboard for RAG

作者Baro
2025年4月21日 14:52

https://github.com/lechmazur/confabulations

해당 기사는 대규모 언어 모델(LLM)이 오해의 소지가 있는 질문에 응답할 때 얼마나 자주 존재하지 않는 답변, 즉 허구 또는 환각을 생성하는지 평가하기 위한 벤치마크에 관한 것입니다. 질문은 LLM 훈련 데이터에 아직 포함되지 않은 최근 기사를 기반으로 합니다. RAG(검색 증강 생성)를 사용할 때는 이러한 허구를 최소화하는 것이 중요합니다. 2025년 2월 10일 현재, 제공된 텍스트에 답변이 없는 것으로 사람이 확인한 201개의 질문이 신중하게 선별되고 평가되었습니다. 벤치마크는 동일한 프롬프트와 문서를 사용하지만 텍스트에 있는 특정 질문을 사용하여 LLM 무응답률도 추적합니다.

요약행위자: gemini adv 2.0 flash. 2025.04.21.

바로: 구글 사랑해요~~~!!! (먼산)

단순히 데이터를 많~~이 때려 넣고, 죽도록 학습 시키는 것의 한계가 온 것일까? 그 다음은 무엇일까? 컨텍스트 양의 차이인가? 혹은 인간에 대입하며, 가장 미친”놈” 발생 가능성이 높은 직군 중 하나가 교수인것과 같은 것일까?! -0-;;

근데 언어 기반 모델의 발전은 이정도면 된 것 아닐까? 아예 세계모델을 때려 넣는 것이 아닌 이상 언어만의 기반 모델로는 이 정도면 충분하지 않을까? 최소한 텍스트 기반 모델에서는 각 도메인 영역 특화로 가야하지는 않을까?

참조: https://openai.com/index/o3-o4-mini-system-card

AI 창작 인문학 플랫폼 ‘AI 크레타’ 정식 오픈

作者Baro
2025年3月31日 20:45

AI가 써 내려간 인문학, ‘AI 크레타’에서 만나보세요!

인공지능(AI)이 창작한 인문학 콘텐츠를 한곳에 모은 특별한 플랫폼, **’AI 크레타'(AICreta.com)**가 3월 26일 정식으로 문을 열었습니다! 이곳은 AI가 직접 쓴 철학, 역사, 문학, 예술 작품들을 누구나 자유롭게 감상할 수 있는 디지털 인문학 아카이브입니다.

왜 AI가 인문학을?

‘AI 크레타’를 운영하는 서치마스터의 전병국 대표는 “생성형 AI의 창작 능력이 어디까지 도달했는지 보여주고 싶었다”고 말합니다. 특히 “인문학이라는 인간 고유의 사고 영역에서 AI가 어떤 사유를 만들어낼 수 있는지 실험하는 것에 의미가 있다”고 강조했는데요. 인간의 깊은 사유가 필요한 영역에 AI가 던지는 질문과 통찰을 탐구하려는 흥미로운 시도입니다.

‘AI 크레타’에는 무엇이 있을까?

이곳의 모든 콘텐츠는 최신 AI 기술을 활용해 만들어졌습니다. 흥미로운 점은, 기존의 학문 분류 체계가 아닌 **’사유’, ‘시간’, ‘언어’, ‘상상’, ‘존재’, ‘대화’**라는 여섯 가지 AI적 시각의 새로운 범주로 콘텐츠를 탐색할 수 있다는 것입니다.

콘텐츠의 종류도 매우 다양합니다.

  • ‘인간의 무의식과 AI의 환각은 비슷한 것인가?’와 같은 도발적인 철학 에세이
  • ‘모든 사람은 예술가일 수 있는가?’ 같은 인문학적 논쟁에 대한 탐구 보고서
  • AI가 장문의 글쓰기에 도전한 ‘비즈니스 논어’, ‘소설 마가복음’, ‘일주일에 배우는 심리학’ 등의 실험 사례
  • 공자와 소크라테스가 만나 법과 도덕의 우선순위를 토론하는 상상 대화

AI가 쓴 글, 인간과 어떻게 다를까?

전병국 대표는 “AI가 쓴 글이라고 해서 기계적이거나 무감각하다고 생각할 필요는 없다”며, “오히려 때때로 인간보다 더 깊고 낯선 통찰을 담아낸다”고 말합니다. 이는 AI가 단순히 정보를 요약하는 것을 넘어, 사고와 창작 과정 자체를 어느 정도 ‘모방’하는 단계에 이르렀음을 보여주는 증거라고 덧붙였습니다.

미래를 향한 실험실

‘AI 크레타’는 단순한 콘텐츠 저장소를 넘어섭니다. 생성형 AI 시대의 글쓰기와 사유 방식 변화를 실험하는 **’실험실’이자 ‘아카이브’**로서의 역할을 지향하는데요. 앞으로 독자들의 반응과 AI 기술의 발전에 발맞춰 더욱 다양한 주제와 형식으로 콘텐츠를 확장해나갈 계획이라고 하니, 그 발전이 더욱 기대됩니다.

인공지능이 펼쳐내는 인문학의 새로운 가능성, 궁금하지 않으신가요? 지금 바로 ‘AI 크레타’를 방문하여 AI가 창조한 독창적인 사유의 세계를 직접 경험해 보세요.

▶ AI 크레타 바로가기: https://aicreta.com


서치마스터는? ‘AI 크레타’를 선보인 서치마스터는 2002년부터 검색엔진과 데이터 분석 분야를 연구해 온 기업입니다. 검색과 AI를 융합하는 다양한 시도를 통해 ‘AI 스토리 플래너’ 등 AI를 활용한 새로운 창조의 세계를 열어가고 있습니다. (웹사이트: http://www.searchmaster.co.kr)

원출처: AI 창작 인문학 플랫폼 ‘AI 크레타’ 정식 오픈

변환: Gemini Advanced 2.5 pro(exp). 2025.03.31.

바로: 긁적… 생성형AI로 만든 블로그 아닌가? 이걸 디지털인문학 아카이브라고 한다면… 물론 일종의 시각화 혹은 표현으로서 유의미한 측면이 있긴 하지만, 가장 중요한 부분이 누락된 듯 하다. 해당 결과물이 나오기까지의 과정! 무엇보다 해당 결과물을 도출한 질문은 무엇인가?

딥시크의 성공 뒤의 문과생

作者Baro
2025年3月8日 21:50

문과 출신들로 구성된 이 팀은 AI 모델 훈련과 딥시크가 생성하는 콘텐츠의 품질을 끌어올리는 역할을 담당한다. 역사·문화·과학 등과 관련된 데이터를 일목요연하게 분류해 AI가 더 효율적으로 학습하고 답을 낼 수 있게 한다. 관련 학문에 대한 배경 지식을 갖고, 마치 도서관에서 책을 분류하듯 데이터를 정리하는 것이다. 딥시크 한 전직 직원은 최근 한 온라인 세미나에서 “그들은 방대한 지식들을 모아 가상 도서관을 구축하는 업무를 맡는다”며 “수많은 데이터 속에서 AI가 통찰력을 얻을 수 있도록 지원한다”고 했다.

조선일보. 딥시크 성공 뒤엔 ‘문과생’ 있었다. 2025.03.05.

바로: 디지털 인형 눈알 붙치기를 한 단순 라벨러일까? Reinforcement Learning from Human Feedback (RLHF) 작업 참여자일까? 둘 중 어느 경우든 아직은 단순한 참여로 보이는데…

LLM(Large Language Model) to LWM(Large World Model)?

作者Baro
2025年3月5日 15:46

주간동아. LLM 넘어 LWM 시대 온다: 현실과 디지털 경계 초월… 메타버스도 부활 신호. 2025.03.04.

지난 2년간 챗GPT가 생성형 인공지능(AI) 시장을 주도한 기술의 근원은 거대언어모델(Large Language Model·LLM)이었다. 인간 언어를 학습한 AI가 언어로 답을 내놓는 것. 이제는 LLM을 넘어 거대세계모델(Large World Model·LWM) 시대가 오고 있다.

젠슨 황 엔비디아 최고경영자(CEO)는 1월 CES(국제전자제품박람회) 2025에서 “로봇의 챗GPT 모멘트(변곡점)가 온다”며 물리 AI(Physical AI)를 차세대 AI의 발전 방향으로 제시했다. 그리고 이를 위한 플랫폼 코스모스(Cosmos)를 발표했다.

엔비디아는 3D(3차원) 시뮬레이션에 기반한 디지털 트윈 플랫폼 옴니버스(Omniverse)를 갖고 있다. 디지털 트윈은 현실과 같은 가상공간을 만드는 것으로, 시뮬레이션을 통해 결과를 미리 예측할 수 있다. 여기에 코스모스가 더해지면서 옴니버스로 구현한 가상공간에 정교한 디지털 트윈이 가능해졌다. 현실에서의 물리적 상호작용이 가상 세계에서도 구현되는 것이다. 또 휴머노이드 로봇에 탑재되는 소형 컴퓨터 ‘젯슨 토르(Jetson Thor)’가 출시되면 로봇이 현실 속 수많은 환경 변화를 인식하고 인간의 명령까지 이해할 수 있는 새로운 세계가 열린다. 황 CEO의 말대로 AI가 또 한 번의 거대한 기술적 변곡점을 맞이하고 있는 것이다.

엔비디아 외에도 구글과 지멘스 역시 물리 법칙을 이해하는 AI를 개발하고 있다. 구글은 현실 세계를 시뮬레이션해 AI가 스스로 학습하고 문제를 해결하는 LWM을 지향한다. 구글 자회사 딥마인드가 지난해 12월 출시한 지니2(Genie2)는 텍스트와 이미지를 기반 삼아 실시간으로 상호작용이 가능한 3D 가상 세계를 생성할 수 있다. 가령 “숲속을 걷는 귀여운 로봇”이라는 텍스트와 로봇 이미지를 입력하면 로봇이 숲을 걸어 다니는 3D 장면을 실시간으로 만들어낸다. 사용자는 키보드와 마우스를 통해 이 3D 환경을 탐색하고 상호작용할 수 있다. 이 기술을 응용하면 현실감 있는 가상 세계를 구축할 수 있을뿐더러, 자율주행이나 로봇 시뮬레이션 분야에서도 활용할 수 있다.

— 이하 생략 —

바로: LWM은 분명히 이상향이다. 그런데 근 시일내로 연구실이 아닌 현장에서의 적용은 어렵지 않을까 생각한다. 하지만 일부 제한적인 환경에서의 적용만으로도 충분한 가치가 있으리라 생각한다. 다만… 인문학의 입장에서는 인간 모델을 만들어야 하는데… 최소한 수 만 단위의 멀티 에이젼트가 LWM에서 행위를 할 수 있어야 하는데…. 먼산…

무료 Gemini Code Assist : github, VS, JetBrains…

作者Baro
2025年3月3日 15:03

https://blog.google/technology/developers/gemini-code-assist-free

이제 전 세계 개발자들이 무료로 AI 코딩 보조 도구를 이용 가능

  • Google의 DORA 연구 결과, 75% 이상의 개발자가 AI를 일상적으로 활용중
    • Google 내 신규 코드의 25% 이상이 AI로 생성 → 이후 엔지니어가 검토 후 반영
  • 기존 AI 코딩 도구는 주로 기업용으로 제공되어 학생, 프리랜서, 스타트업 등이 접근하기 어려웠음
  • 개발자 수는 2028년까지 5,780만 명으로 증가할 전망 → AI가 누구에게나 무료로 제공되어야 한다는 목표
  • 이를 위해 Gemini Code Assist for Individuals 공개 미리보기(Public Preview) 발표

Gemini 2.0 기반 개발 지원

  • Gemini 2.0 기반으로 동작하며, 모든 공개 프로그래밍 언어 지원
  • 개발자 최적화 모델 → 실전 코딩 사례를 학습하여 높은 품질의 AI 추천 제공
  • 기존 무료 AI 코딩 도구의 “월 2,000회 코드 자동 완성 제한”을 초과하는 최대 18만 회 코드 완성 지원
    • 사실상 제한 없는 사용 가능 (전문 개발자도 초과하기 어려운 수준)
  • AI는 코드 작성뿐만 아니라 코드 품질 향상에도 기여
    • Gemini Code Assist for GitHub를 통해 공개/비공개 저장소에서 AI 코드 리뷰 기능 제공
    • 개발자의 코드 리뷰 시간을 단축하여 보다 중요한 작업에 집중 가능

AI 코딩 지원, 개발자가 원하는 곳에서 무료로 제공

  • 지원하는 환경
  • 주요 기능
    • 코드 자동 완성, 생성, 디버깅 및 코드 수정 지원
    • AI와 자연어로 코드 작성 및 개선 가능
      • 예시: "이메일과 메시지 입력 필드를 포함한 HTML 폼을 만들어줘"
      • 예시: "매일 날씨 정보를 이메일로 보내는 스크립트 작성"
      • 예시: "이 Python 코드의 기능을 설명하고 오류를 찾아줘"
    • 128,000 토큰까지 지원하는 넉넉한 컨텍스트 윈도우 → 큰 코드베이스 분석 가능
    • AI 채팅 기능을 활용해 반복 작업을 자동화 → 주석 작성, 테스트 코드 생성 등 자동 처리
  • 무료 사용의 장점
    • 90배 많은 코드 자동 완성 제공 (기존 무료 AI 도구 대비)
    • 학생, 프리랜서, 스타트업 개발자에게 최적화
      • 프로젝트 진행 중 사용량 제한 없이 지속적인 코딩 가능
      • AI 페어 프로그래밍 활용 가능

GitHub 코드 리뷰: 맞춤형, 실행 가능한 피드백 제공

  • Gemini Code Assist for GitHub에서 코드 리뷰 지원
    → 스타일 문제 감지, 버그 탐지, 코드 수정 제안 가능
  • AI 기반 코드 리뷰를 활용해 유지보수성 및 코드 품질 향상
  • GitHub에 직접 통합 → GitHub 앱 설치 후 사용
  • 저장소별 맞춤 코드 스타일 가이드 적용 가능
    • .gemini/styleguide.md 파일을 통해 각 팀의 코딩 규칙 정의
    • 팀별 코드 스타일 및 베스트 프랙티스 반영 가능

오늘 부터 바로 사용 가능!

출처: https://news.hada.io/topic?id=19445

Don’t Do RAG – cache-augmented generation (CAG) / 캐싱 기술로 돌파하라!

作者Baro
2025年1月19日 21:57

Don’t Do RAG: When Cache-Augmented Generation is All You Need for Knowledge Tasks

https://doi.org/10.48550/arXiv.2412.15605

RAG(위)와 CAG 비교도 (사진=arXiv)

– 외부 지식 자원을 활용하는 RAG보다 긴 컨텍스트 LLM과 캐싱 기술을 활용하는 cache-augmented generation (CAG)가 더 좋음.

– 컨텍스트 창은 점차 증가하고 있으며, 현재는 보통 10만 토큰은 넘고, 제미나이 1.5 Pro는 200만 토큰임.

– 물론 긴 프롬프트는 모델을 느리게 하고, 비용을 증가시킴. 그래서 고급 캐싱 기술이 필요함.

Titans: attention을 개선하는 새로운 아키텍처?!

作者Baro
2025年1月17日 16:12

Titans: Learning to Memorize at Test Time
Ali Behrouz, Peilin Zhong, Vahab Mirrokni

https://doi.org/10.48550/arXiv.2501.00663

기존에 짧은 문장/문맥에 특화되어 있는 attention의 한계 돌파 가능?!

– 트랜스포머 구조 + 순환신경망(RNN) / 장기 메모리(long-term memory) 도입

– Core(단기 기억, attention) + Long-term Memory(장기 기억) + Persistent Memory(영구 기억)

– Surprise Metric(새로운 지식) + adaptive forgetting(망각)

– PyTorch + JAX –> 아직 모델 훈련-평가 코드 미공개

바로: Google!!! 무서운 녀석들…. 근데 이번 논문 제목은 센스가 없…. (Attention Is All You Need~ )

Ai agents 개념도

作者Baro
2025年1月16日 12:32

The Abacus.AI Blog. AI Agents – Build and Host LLM Apps At Scale. 2023.08.31. https://blog.abacus.ai/blog/2023/08/31/supercharge-productivity-accomplish-10x-more-with-ai-agents

바로: 시간이 좀 지난 것이지만, AI Agents를 설명하는 가장 괜찮은?! 개념도 인듯?! 다만, 1번 데이터에 대해서는 보다 발전?! 시키는 것이?!

Diffbot GraphRAG LLM: LLM + real-time Knowledge Graph API

作者Baro
2025年1月16日 12:26

https://github.com/diffbot/diffbot-llm-inference

LLama 3.3 70B를 real-time Knowledge Graph API로 파인튜닝하여, 기존 LLM보다 좋은 성능을 보임. 단순히 매개변수를 늘리는 것보다 실시간 데이터베이스와 연계하는 것이 효과적임을 입증?!

FreshQA 2024 쿼리의 정확도

RIG(Retrieval Interleaved Generation)

作者Baro
2024年12月18日 18:44

RAG와 RIG는 모두 검색(Retrieval) 기술을 활용하여 생성(Generation) 모델의 성능을 향상시키는 방법론이지만, 몇 가지 중요한 차이점이 있습니다. 두 방법론을 비교 설명해드리겠습니다.

1. RAG (Retrieval-Augmented Generation)

  • 개념: RAG는 텍스트 생성 전에 관련 문서를 외부 지식 소스(예: 위키피디아, 웹 문서)에서 검색하고, 검색된 문서를 바탕으로 텍스트를 생성하는 방식입니다. 쉽게 말해, 생성 모델이 질문에 답하거나 텍스트를 생성할 때, 미리 관련 정보를 찾아 참고하여 답변을 만드는 것입니다.
  • 동작 방식:
    1. 검색 (Retrieval): 사용자의 입력 쿼리를 기반으로 관련 문서들을 외부 지식 소스에서 검색합니다.
    2. 생성 (Generation): 검색된 문서들을 참고하여 텍스트를 생성합니다. 생성 모델은 입력 쿼리와 검색된 문서들을 모두 입력으로 받아 응답을 생성합니다.
  • 장점:
    • 최신 정보를 반영하여 텍스트를 생성할 수 있습니다.
    • 환각(Hallucination) 현상, 즉 모델이 사실이 아닌 내용을 생성하는 문제를 줄일 수 있습니다.
    • 근거를 기반으로 답변을 생성하기 때문에 생성된 텍스트의 신뢰성이 높아집니다.
    • 특정 도메인에 특화된 지식 소스를 사용하면 해당 도메인에 대한 정확도를 높일 수 있습니다.
  • 단점:
    • 검색 단계가 추가되기 때문에 생성 속도가 느려질 수 있습니다.
    • 검색 결과의 품질이 생성 모델의 성능에 큰 영향을 미칩니다. 잘못된 정보나 관련 없는 문서가 검색되면 생성 결과도 나빠질 수 있습니다.
    • 검색과 생성 모델을 모두 학습시켜야 하기 때문에 학습 과정이 복잡할 수 있습니다.

2. RIG (Retrieval Interleaved Generation)

  • 개념: RIG는 RAG와 유사하지만, 검색과 생성을 번갈아 가며 수행하는 방식입니다. 텍스트를 생성하는 중간중간에 필요한 정보를 검색하여 생성 과정을 업데이트합니다. 즉, 한 번에 모든 정보를 검색하는 것이 아니라, 생성 과정에서 필요할 때마다 정보를 검색하여 반영합니다.
  • 동작 방식:
    1. 초기 생성: 입력 쿼리를 바탕으로 초기 텍스트를 생성합니다.
    2. 검색: 생성된 텍스트를 기반으로 추가적으로 필요한 정보를 외부 지식 소스에서 검색합니다.
    3. 생성 업데이트: 검색된 정보를 바탕으로 생성 중인 텍스트를 업데이트합니다.
    4. 반복: 필요에 따라 2단계와 3단계를 반복하여 텍스트를 완성합니다.
  • 장점:
    • RAG와 마찬가지로 최신 정보를 반영하고 환각 현상을 줄일 수 있습니다.
    • 생성 과정에서 필요한 정보만 검색하기 때문에 RAG보다 효율적일 수 있습니다.
    • 생성 모델이 텍스트를 생성하면서 필요한 정보를 직접 판단하고 검색하기 때문에 문맥에 더 적합한 정보를 활용할 수 있습니다.
  • 단점:
    • RAG보다 더 복잡한 모델 구조와 학습 방식을 필요로 합니다.
    • 검색 빈도와 검색 시점에 대한 최적화가 중요하며, 잘못 설정하면 오히려 성능이 저하될 수 있습니다.
    • 생성된 텍스트에 따라 검색 결과가 달라질 수 있어, 일관성이 떨어질 수 있습니다.

3. 비교 요약

특징RAGRIG
검색 시점생성 전생성 중 (필요 시)
검색 빈도일반적으로 한 번여러 번 (필요한 만큼)
효율성상대적으로 낮음상대적으로 높음 (필요한 정보만 검색)
복잡성상대적으로 낮음상대적으로 높음
문맥 적합성상대적으로 낮을 수 있음상대적으로 높을 수 있음
학습 난이도상대적으로 낮음상대적으로 높음
대표적인 모델RAG (Facebook AI)REALM (Google AI), R2-D2 (Microsoft Research)
일관성상대적으로 높음상대적으로 낮을 수 있음

Sheets로 내보내기

4. 결론

RAG와 RIG는 모두 장단점이 있으며, 어떤 방법론이 더 우수하다고 단정 지을 수는 없습니다. 해결하고자 하는 문제의 특성, 사용 가능한 데이터, 컴퓨팅 자원 등을 고려하여 적합한 방법론을 선택해야 합니다.

  • RAG는 구현과 학습이 상대적으로 간단하고, 최신 정보를 반영해야 하는 작업(예: 뉴스 기사 요약, 최신 정보를 바탕으로 한 질의응답)에 적합할 수 있습니다.
  • RIG는 더 복잡하지만, 생성 과정에서 필요한 정보만 동적으로 검색하기 때문에 효율적이고, 문맥에 더 잘 맞는 텍스트를 생성할 수 있습니다. 따라서 긴 텍스트 생성이나 대화형 AI와 같이 문맥 이해가 중요한 작업에 더 적합할 수 있습니다.

궁금증이 해결되셨기를 바랍니다. 더 궁금한 점이 있으면 언제든지 질문해 주세요.

출처: “RAG(Retrieval-Augmented Generation)와 RIG(Retrieval Interleaved Generation)를 비교 설명해”. Gemini Advanced 2.0 Experimental Advanced. 2024.12.18.

https://research.google/blog/grounding-ai-in-reality-with-a-little-help-from-data-commons

DataGemma-2-RAG.original

[뉴스] “도메인 전문가 AI활용 시 제조 강국 대한민국 위치 굳건해질 것”

作者Baro
2024年8月27日 20:42

인하대 제조혁신전문대학원 이창선 연구교수 인터뷰

이 교수는 “도메인 전문가는 도메인 지식을 기반으로 할루시네이션 발생을 인지하고 개선 방안을 만들 수 있다”면서 “그런데 AI 지식, 코딩 지식, 데이터마이닝 지식이 부족하기 때문에 도메인 전문가는 개선 업무용 AI를 개발할 수는 없다”고 지적했다. 도메인 전문가가 수시로 변화하는 개선 업무 내용에 대응하여 간편하게 AI를 개발할 수 있는 간편 맞춤 AI가 필요한 이유가 여기에 있다.  ‘개선 업무용 간편 맞춤 AI’는 ‘도메인 전문가용 간편 맞춤 AI’, 또는 ‘R&D용 간편 맞춤 AI’다. 

도메인 전문가가 사용할 개선 업무용 AI를 개발하기 위해서는 AI 지식, 코딩 지식, 데이터마이닝 지식, 도메인 지식이 필요하지만 단기간에 배울 수 있는 지식이 아니라는 게 문제다. 이 교수는  많은 도메인 전문가 들이 엑셀 사용에 익숙하다는 점에 착안해 ‘엑셀 문서 AI 개발 환경’을 사용할 것을 조언한다. 이를 통해 맞춤 AI를 도메인 전문가가 직접 개발 할 수 있다는 게 그의 지론이다. 개선 업무용 간편 맞춤 기능은 설계 문서 접점(Design Document Interface)인 엑셀에 의해 가능하다고 덧붙였다.

 이 교수는 “제조 기업에서는 AI 활용 도메인 전문가를 양성하는 교육이 확대돼야 한다”면서 “간편 맞춤 AI를 이용해 인의 문제를 풀기 위한 AI 를 단기간에 직접 개발해 활용해야 한다”고 역설했다. 본인이 개발한 AI를 활용하면서 AI 관련 능력을 확대하는 방식이다.  ‘AI 활용 도메인 전문가’가 DDI로 설계 하면, 설계대로 이해할 수 있는 산출물을 생성하는 간편 맞춤 AI 엔진은 ‘AI 개발 전문가’가 개발해야 한다. 이 교수는 “설계와 구현의 분업화가 이뤄지는 것이고 도메인 전문가와 AI 전문가의 협업을 통해 AI의 확산이 이뤄지는 것”이라고 강조했다.

이 교수는 “많은 제조기업인들은 AI의 필요성을 인식하고 있지만  무엇을 해야 할 지 잘 모른다”면서 “AI활용 도메인 전문가가 양성된다면 AI가 선도하는 4차 산업혁명의 물결에 올라탈 수 있을 것”이라고 덧붙였다.

출처: 뉴스투데이. “도메인 전문가 AI활용 시 제조 강국 대한민국 위치 굳건해질 것”

❌