- 2026년 2월 11일 오후 11:23
- 조회수: 410
INFORMATION
- 2026년 2월 13일
- 오전 12시 ~
온라인 비디오 시청 (YouTube)
심세진
TOPIC
On-Line Video
OVERVIEW
[1] Liu, S., et al. (2025). Rethinking machine unlearning for large language models. Nature Machine Intelligence.
[2] Li, Q., et al. (2025). A survey of machine unlearning in large language models: Methods, challenges and future directions. arXiv preprint arXiv:2410.00624.
[3] Zhong, Z., Wu, Z., Manning, C. D., Potts, C., & Chen, D. (2023). MQUAKE: Assessing Knowledge Editing in Language Models via Multi-Hop Questions. In EMNLP.
[4] Gu, H., Zhou, K., Han, X., Liu, N., Wang, R., & Wang, X. (2024). PokeMQA: Programmable knowledge editing for Multi-hop Question Answering. In ACL.
[5] Simon, D., & Ewetz, R. (2025). Knowledge Editing for Multi-Hop Question Answering Using Semantic Analysis. In IJCAI.
청취자 후기
이정민
현재 large language models(LLM)은 다양한 사람들이 활용하고 있지만, 지속적으로 업데이트 되는 여러 정보들에 대해서는 아직까지 약점을 보이고 있다. 이를 극복하기 위해 단순히 정보 삭제에 초점을 둔 machine unlearning과 최신 정보를 수정하는 knowledge editing이 주목을 받고 있다. 이번 세미나는 이러한 knowledge editing 갈래 중 메모리/입력 기반 방법론들에 대해 소개해주었다. 특히 decomposition이 필요한 multi-hop 능력을 향상 시키기 위함에 초점을 맞추었다.
질문 분해, 답변 생성, 충돌 감지를 하나의 프롬프트 안에서 LLM이 처리하는 MeLLO의 문제를 해결하기 위해 PokeMQA 가 등장하였지만, 여전히 최종 decomposition 후 마지막 답변은 LLM 추론에 맡기는 문제를 가지고 있다. 또한, decomposition 과정에서 맥락을 잘못 파악하여 결과적으로 잘못된 답변을 하게 되는 문제가 발생하였다. 마지막으로 소개해준 CHECK는 이러한 문제를 해결하기 위해 기존 nlp 분야에서 연구가 많이 되었던 개체명 인식 방법과 비슷하게 개체와 관계를 추론하는 방식을 도입하였다. 이러한 방식을 통한 subquestion resolution 을 수행함으로써 비논리적인 decomposition 문제를 해결하였고, 결과적으로 복잡한 multi-hop 문제에서 가장 우수한 성능을 도출하였다.
Transformer, ChatGPT를 포함한 GPT series, 이 후 다양한 LLM들의 등장으로 끝날 것만 같았던 LLM 분야도 계속적으로 발전이 필요하다는 것을 이번 세미나를 통해 다시금 느낄 수 있었다. 다른 이야기지만 제미나이의 그림 실력에 놀랐고 많이 활용해 볼 필요가 있는 것 같다. 좋은 세미나를 준비하느라 고생한 세진 누나에게 고맙다는 말을 전하며 본 세미나 후기를 마친다.
김성수
이번 세미나는 LLM에 내재된 지식을 수정하는 방법론들에 대해 진행되었다. 특히, 그 중 프롬프트만을 수정하여 추가적인 학습 없이 개선한 사례들을 소개한다. 3개 방법론은 모두 질문을 분해하고, 외부 DB 정보를 Retrieval 하여 정보를 수정한다는 특징을 갖는다. 그 외 PokeMQA는 LLM 외 다른 검출기를 새롭게 정의하고 답변에 대한 심층적인 검증을 위해 2단계 필터링 구조를 갖는다. 또한 Check는 Question을 분해 시 먼저 Entity를 찾고 각 Entity 간 관계성을 고려하는 방향으로 접근한다.
외부 지식 DB 기반 프롬프트 튜닝만으로 이렇게 LLM 정보 수정이 가능한 것이 굉장히 쉽게 다가왔다. 요즘 이러한 Foundation LLM을 활용하는 것이 추세인데, 해당 접근 방법은 다른 Task에서도 유의미하게 활용 가능할 것 같다. 유익한 세미나를 준비해준 심세진 연구원님께 고맙다는 말을 전하며 세미나 후기를 마친다.
김다빈
이번 세미나는 LLM에 내재된 지식을 수정하는 다양한 방법론에 대해 소개해 주었다. 특히 추가적인 학습 없이 프롬프트만을 활용하여 지식을 수정하는 접근 방식이 인상적이었다. 제안된 세 가지 방법론은 모두 질문을 분해하고, 외부 DB로부터 정보를 retrieval하여 지식을 보완한다는 공통적인 특징을 가진다.
그 중 PokeMQA는 LLM 외 별도의 검출기를 정의하여 답변에 대해 2단계 필터링 기반의 검증 구조를 갖는다는 점이 흥미로웠으며, CHECK는 질문을 분해하는 과정에서 entity를 먼저 추출하고, entity 간 관계를 기반으로 추론을 수행한다는 점이 인상적이었다.
외부 지식 DB 기반의 프롬프트 조정만으로도 LLM의 지식을 효과적으로 수정할 수 있다는 점이 비교적 간단하게 느껴졌고, 이러한 접근이 다른 task에도 확장 가능하겠다는 생각이 들었다.
유익한 세미나를 준비해주신 심세진 연구원님께 감사의 말씀을 전하며 후기를 마친다.
김수림
본 세미나는 LLM이 학습 이후 변화한 세계 지식을 어떻게 반영할 수 있는지에 대한 지식 편집(Knowledge Editing)을 주제로 다뤘다.
LLM은 학습 데이터가 시간이 지나면서 노후화되는 문제가 있다. 그렇다고 매번 전체를 재학습시키는 것은 현실적으로 어렵기 때문에, 이를 해결하는 방법으로 언러닝과 지식 편집이 제안되었다. 언러닝이 특정 정보를 모델에서 지워내는 방식이라면 지식 편집은 해당 정보를 새로운 사실로 수정하는 방식이다. 다만 지식을 편집할 때는 무관한 사실은 그대로 보존하면서, 수정된 사실로부터 파생되는 질문에도 올바른 답을 내놓아야 한다는 어려움이 따른다. 특히 지식 간 얽힘과 멀티 홉 추론처럼 여러 단계의 추론을 거쳐 도출되는 답변까지 일관되게 수정하는 것은 쉽지 않은 문제다. 지식 편집의 접근 방식은 크게 파라미터를 직접 수정하는 방법과 외부 메모리를 활용하는 프롬프트 기반 방법으로 나뉜다.
MeLLo는 파라미터를 직접 수정하는 방식이 다단계 추론에서 연쇄적인 지식 전파를 제대로 처리하지 못한다는 점에 착안하여 외부 메모리를 활용하는 방식을 택했다. 질문을 분해하고 잠정적인 답변을 생성한 뒤, 외부 메모리에서 충돌 여부를 확인해 답변을 수정하는 구조다. 다만 이 과정에서 LLM이 추론과 편집을 모두 담당하기 때문에 부담이 크다는 한계가 있다.
PokeMQA는 추론과 편집을 분리해 LLM은 추론에만 집중하도록 하고, 별도로 학습된 Scope Detector가 질문과 수정된 지식 간의 관련성을 판단해 필요한 지식만 추출해서 전달한다. 멀티 홉 질문을 생성하고 외부 지식을 활용해 객체를 구성하는 과정도 포함된다. 다만 하위 질문의 논리가 잘못된 경우 LLM의 추론 검증이 별도로 필요하다는 한계점이 존재한다.
마지막으로 CHECK는 보다 논리적인 질문 분해에 집중하였다. LLM이 추론을 통해 관계 체인을 생성하고 초기 객체를 검증한 뒤 ,객체 타입과 관계를 정리하고 수정된 사실들과의 유사도를 기반으로 관련 지식을 가져오는 방식으로 구성된다. 세 방법론을 비교하며 지식 편집 분야의 흐름과 남은 과제를 짚어볼 수 있는 유익한 세미나였다.
LLM 파운데이션 모델들이 계속해서 등장하고 있는 요즘, 더욱 필요하고 알아야 할 연구 주제인 것 같다. 유익한 세미나를 준비해 준 심세진 연구원에게 고맙다는 말을 전하며 세미나 후기를 마친다.