普通视图

Received before yesterday

Humanitext Aozora

作者김병준
2025年8月11日 11:49

원문 링크: https://dhss.nagoya-u.ac.jp/news/0724_humanitextaozora/

[한국어 번역]

 ”본 센터의 이와타 나오야 부교수, 오베를린 대학의 다나카 카즈타카 부교수, 도쿄 대학의 오가와 준 조교수
휴머나텍스트 프로젝트 2025년 7월 21일, “아오조라 문고”는 대화형 AI 시스템을 갖춘 문학 작품 그룹을 대상으로 했습니다 휴머니텍스트 아오조라‘를 대중에게 공개했다. 대규모 언어 모델(LLM)과 검색 확장 생성(RAG) 기술을 결합함으로써 이 시스템은 연구자, 학생 및 문학을 사랑하는 모든 사람에게 현대 일본 문학에 참여할 수 있는 새로운 방법을 제공합니다.

【프로젝트의 배경과 목적】

 아오조라 문고는 많은 독자들에게 사랑받는 일본 최대의 디지털 도서관이자 인문학 연구의 귀중한 토대입니다. 지금까지는 주로 개별 작품을 읽는 데 사용되어 왔으며,“휴머니텍스트 아오조라”는 최신 AI 기술을 활용한 대규모 의미 검색과 대화 등 이 방대한 양의 텍스트 데이터를 활용하는 새롭고 전례 없는 방법을 제안한다. 자연스러운 상호 작용을 통해 사용자는 작품의 내용을 쉽게 더 깊이 이해하고 여러 작품을 가로지르는 테마를 탐색할 수 있습니다.

【Humanitext Aozora】 의 주요 특징

 이 시스템은 고급 검색 기능과 사용자의 목표에 맞는 4 가지 상호 작용 모드를 갖추고 있습니다.

고급 검색 및 필터 기능:

 대상 문맥을 저자명, 작품명, 장르별로 상세하게 지정할 수 있습니다 (일본 십진분류체계 기준). 이를 통해 여러 작품에서 특정 주제에 대한 설명을 추출하는 등 세심한 연구가 가능합니다.

4가지 상호작용 모드:

질의응답 모드: 간략한 검증 가능한 출처(작업 제목, 섹션 번호 등)와 함께 텍스트에 대한 사실적이고 정확한 답변을 반환합니다.

자세한 설명 모드: 문학 연구자들과 마찬가지로 그들은 여러 권위를 비교하고 분석하여 역사적 배경을 보완하면서 깊은 해석을 제공합니다. 일반 독자들이 작품을 더 잘 이해할 수 있도록 돕는 데 도움이 되는 완벽한 제품입니다.

인터랙티브 모드: 나츠메 소세키, 아쿠타가와 류노스케 등 문학계의 거장들과 작품 속 AI 캐릭터들과 자유롭게 교류할 수 있습니다. 이 모드를 통해 문학의 세계를 더 가까이에서 경험할 수 있습니다.

생성 모드: AI는 지정된 작가의 글쓰기 스타일과 주제를 학습하고 그 스타일을 모방하여 새로운 문장을 만듭니다.

【미래 전망】

Humanitext Aozora 는 디지털 인문학 (인문학 정보학) 분야의 새로운 연구 도구가 되고자 합니다. 이 제도의 출시로 일본 근대 문학 연구의 새로운 가능성이 열리고, 더 많은 사람들이 고전 작품의 매력을 체험할 수 있게 되기를 바랍니다.

【시스템에 대한 액세스】

 ”Humanitext Aozora”는 아래 링크에서 누구나 사용할 수 있습니다. 일본 현대 문학의 새로운 문을 여는 이 대화체험을 해보시기 바랍니다.

URL: https://aozora.humanitext.ai

【관련 정보】

 “Ai chat aozora Bunko” 전문 게재,문학적 거인인 척 대답 ”리정이 호랑이 대신 햄스터가 되었다면?” 내가 물었을 때. .. .. .. .. .. (ITmedia NEWS)

URL: https://www.itmedia.co.jp/news/articles/2507/24/news040.html

【개발팀】

  • 이와타 나오야 (나고야 대학)
  • 다나카 카즈타카(오베를린 대학교)
  • 오가와 준(도쿄대학)

【감사의 글】

 본 프로젝트는 다음 보조금의 지원을 받아 시행되고 있습니다. 여기에 글을 써주셔서 깊은 감사의 말씀을 드립니다.

  • 하기와라 과학진흥재단 2024(제5차 연구비)
  • 미쓰비시 재단 인문학 연구 보조금 2024

본 이니셔티브에 관한 문의는 아래 연락처로 연락주시기 바랍니다.
연락처: iwata.naoya.y7[Atto] f.mail.nagoya-u.ac.jp

DEArt: Dataset of European Art

作者김병준
2025年4月1日 12:12

Large datasets that were made publicly available to the research community over the last 20 years have been a key enabling factor for the advances in deep learning algorithms for NLP or computer vision. These datasets are generally pairs of aligned image / manually annotated metadata, where images are photographs of everyday life. Scholarly and historical content, on the other hand, treat subjects that are not necessarily popular to a general audience, they may not always contain a large number of data points, and new data may be difficult or impossible to collect. Some exceptions do exist, for instance, scientific or health data, but this is not the case for cultural heritage (CH). The poor performance of the best models in computer vision – when tested over artworks – coupled with the lack of extensively annotated datasets for CH, and the fact that artwork images depict objects and actions not captured by photographs, indicate that a CH-specific dataset would be highly valuable for this community. We propose DEArt, at this point primarily an object detection and pose classification dataset meant to be a reference for paintings between the XIIth and the XVIIIth centuries. It contains more than 15000 images, about 80% non-iconic, aligned with manual annotations for the bounding boxes identifying all instances of 69 classes as well as 12 possible poses for boxes identifying human-like objects. Of these, more than 50 classes are CH-specific and thus do not appear in other datasets; these reflect imaginary beings, symbolic entities and other categories related to art. Additionally, existing datasets do not include pose annotations. Our results show that object detectors for the cultural heritage domain can achieve a level of precision comparable to state-of-art models for generic images via transfer learning.

논문 https://arxiv.org/abs/2211.01226

허깅페이스 데이터셋 https://huggingface.co/datasets/biglam/european_art

허깅페이스 모델 https://huggingface.co/wjbmattingly/european-art-yolov11

DH Awards 2024 Voting

作者김병준
2025年3月28日 08:26

Please vote for the following resources from 2024 in the DH Awards 2024. Anyone is allowed to vote (once). Have a look over the resources in each category and then fill out the form linked to at the bottom of the page in order to vote. For frequently asked questions please see http://dhawards.org/dhawards2024/faqs/ for more information. We are sorry if your nominated resource wasn’t passed by the committee, all decisions are final once voting opens. We may also have moved it to a different category. 

Note: Nominations are not filtered for quality and resources may self-nominate. If you own the resource and there are errors in your title or URL please email james at dhawards.org and we will correct these. 

Voting will be open until 2025-04-04

http://dhawards.org/dhawards2024/voting/

Open Databases for China Studies Resource Guide

作者김병준
2024年9月20日 09:06

This guide provides an overview of open databases and free resources with primary materials for China studies research. The guide was edited by Joshua Seufert (Princeton University Libraries) and Luo Zhou (Duke University Libraries) for the Luce/ACLS Digital Archives Mapping Project. This guide will be updated periodically, with an expanded directory to be released in winter 2025. If you would like to contribute to the Mapping Project, we invite you to suggest a resource here.

Open Databases for China Studies Resource Guide – ACLS

한국국학진흥원, ‘근대기록문화 아카이브’ 최초 공개

作者김병준
2024年7月15日 14:04

“한국국학진흥원이 문화체육관광부 지원으로 조사·수집한 민간 근대기록자료 15만여점을 15일부터 온라인(https://modern.koreastudy.or.kr)을 통해 최초 공개했다.

‘근대기록문화 아카이브’란 타이틀로 이번에 공개된 자료는 국학진흥원이 2021년부터 매년 500명의 조사원을 통해 전국 각지에서 4년 동안 수집한 50만여점 중 일부로, 원본 자료를 아카이브에 디지털로 구축해 누구나 시간과 장소에 구애 받지 않고 쉽게 볼 수 있다. 나머지 자료도 추후 검증을 거쳐 순차적으로 공개될 예정이다.”

관련기사 : https://www.yeongnam.com/web/view.php?key=20240715010002075

RISS 학위 논문 서지정보 스크래핑 코드

作者김병준
2024年4月18日 20:27

한국 현대문학 박사학위 논문 서지 데이터 분석 github 레포지토리에 기존 RISS 학위논문 수집 코드(Selenium 활용)가 더이상 작동하지 않아 새롭게 개발함.

RISS에서 원하는 검색 조건(학위논문 학과, 제목 등) URL이 있으면 세부 서지정보(초록, 목차, 참고문헌 등)을 한번에 수집 가능.

https://github.com/ByungjunKim/DDMKL/blob/main/01RissScraping.ipynb

❌