Professor's Notes

Professor's Notes

Number of entries: 18 (필터 적용됨)
21
2025.04

인공지능 시대에 꼭 필요한 역량

나는 기업과 학교가 협력하는 산학협력 연구를 많이 해왔다. 산학협력을 시작할 때 가장 먼저 하는 일 중 하나가 연구 제안서를 작성하는 것이다. 제안서에는 연구 목적, 제안 내용, 기대되는 결과물 등 연구의 전반적인 계획이 포함된다. 하지만 실제 연구가 시작되면 계획대로 모든 것이 정확하게 진행되는 경우는 거의 없다. 보통은 초기 계획을 기반으로 연구를 수행하고, 그 결과를 기업과 공유한다. 그러면 기업은 그 결과를 보고 새로운 궁금증을 갖는다. "이런 결과가 나왔는데, 그렇다면 다른 방식으로 접근해보면 어떨까?" 이런 질문이 나오면서 연구는 새로운 방향으로 확장된다. 사실 이런 질문들은 처음 작성한 제안서에 포함되어 있을 수도 있고, 전혀 예상치 못한 새로운 질문일 수도 있다. 연구가 진행되면서 결과를 확인하고, 그 과정에서 의문이 생기고, 더 발전된 질문이 탄생하는 것이다. 이 과정은 연구뿐만 아니라, 인공지능 시대를 살아가는 우리 모두에게 중요한 교훈을 준다. 요즘 ChatGPT 같은 언어 생성 모델들이 나오면서 가장 중요한 능력 중 하나가 "좋은 질문을 던지는 능력" 이 되었다. 하지만 더 중요한 건 인공지능의 1차 답변을 보고, 그걸 바탕으로 더 나은 질문을 할 수 있는 능력이다. 예를 들어, ChatGPT가 1차 답변을 줬을 때, "이 답변이 정확한가?", "이 답변에서 더 깊이 탐구할 부분은 무엇인가?" 등의 이어지는 질문을 던질 수 있어야 한다. 즉, 답변을 단순히 받아들이는 것이 아니라, 그 내용을 검토하고, 부족한 점을 찾고, 이를 기반으로 또 새로운 질문을 던지는 과정이 반복되어야 한다. 결국, 더 나은 질문을 하기 위해서는 더 많은 지식과 깊이 있는 사고가 필요하다. 단순한 정보만 가진 사람은 1차 또는 2차 질문에서 멈추게 된다. 반면, 지식이 깊고 사고력이 뛰어난 사람은 답변을 검토하고, 부족한 점을 찾아내며, 끊임없이 질문을 발전시켜 나간다. 질문을 잘 할 수 있는 방법은 직간접 경험을 많이 해 보는 것이다. 직접 경험으로 가장 좋은 방법은 여행이다. 꼭 아이슬란드, 우유니 사막, 파리, 오사카, 발리, 하와이를 가야만 여행이 되는 것은 아니다. 좋아하는 사람(혼자 포함)과 함께 익숙하지 않은 곳으로 가면 모두 여행이다. 간접적인 경험으로는 독서가 가장 효과적이다. 만화책, 무협지 등 어떤 종류의 책이든 상관없다. 물론 독서는 개인의 타고난 성향에 따라 쉽게 친해지기 어려운 사람이 있다. 이런 사람들은 반드시 한권의 책을 처음부터 끝까지 다 읽으려 하지 말고, 흥미로운 부분만 골라 읽어도 좋다. 인공지능 시대에서 꼭 필요한 역량은 문제 해결 능력이 아니라 문제 정의 능력이고, 이런 능력을 키울 수 있는 가장 좋은 방법은 여행과 독서다.   I have done a lot of research in industry-academia collaborations. One of the first things we do at the beginning of an industry-academia collaboration is to write a research proposal. The proposal includes the overall plan of the research, including the purpose of the research, the content of the proposal, and the expected outcomes. However, once the actual research begins, things rarely go exactly as planned. Usually, the research is conducted based on the initial plan and the results are shared with the company. The company then sees the results and has new questions. “Well, this is what we found, but what if we approached it in a different way?” They ask, and the research expands in new directions. In fact, these questions may have been in the original proposal, or they may be new and unexpected. As the research progresses, results are confirmed, questions arise, and more questions are developed. This is an important lesson not only for researchers, but for all of us in the AI era. Nowadays, with language generation models like ChatGPT, one of the most important skills is the ability to ask good questions. For example, when ChatGPT gives us an initial answer, we need to be able to ask follow-up questions, such as “Is this answer accurate?” and “What are the areas to explore further in this answer?” In other words, we should not simply accept the answer, but examine it, find the gaps, and ask new questions based on it. In the end, asking better questions requires more knowledge and deeper thinking. A person with only simple information will stop at the first or second question. On the other hand, a deeply knowledgeable and thinking person will review answers, identify gaps, and constantly evolve their questions. The way to get better at asking questions is to have a lot of direct and indirect experience. The best way to get first-hand experience is to travel. You do not have to go to Iceland, the Uyuni Desert, Bali, Paris, Osaka, or Hawaii to travel. Anytime you go to an unfamiliar place with someone you love, it is traveling. For indirect experiences, reading is the most effective. It does not matter if it is a comic book, a martial arts book, or any other kind of book. Of course, some people are not naturally inclined to read. These people should not necessarily try to read a book from cover to cover but rather pick out the parts that interest them. In the age of AI, the most important skill is not problem solving, but problem definition, and the best way to develop this skill is to travel and read.   Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.04.21
Read More
06
2025.04

AI 에이전트

AI 에이전트는 인간이 설정한 특정 목적을 달성하기 위해 개별 인공지능 모델을 최적의 조합으로 운영하며, 다양한 작업을 효과적으로 대응할 수 있는 시스템이다. ChatGPT와 같은 언어모델이 특정 질문에 답변하는 데 그치는 반면, AI 에이전트는 이를 넘어 더욱 복잡하고 다양한 작업을 동시에 처리할 수 있다. 1980년대 중반 방영된 미국 드라마 “전격 Z작전 (원제: Knight Rider)”에 등장한 킷트(KITT) 자동차는 AI 에이전트의 대표적인 예시이다. 킷트는 자율주행, 방탄 기능, 터보 부스터, 음성 대화 기능을 갖춘 AI 에이전트 차량으로, 주인공 마이클 나이트의 파트너로 활약했다. 킷트의 음성 인식 및 상황 분석 능력은 마이클이 범죄를 해결하는 데 큰 도움을 주었다. 자동차 앞 부분의 좌우로 움직이며 빛나는 빨간색의 스캐너 램프와 효과음은 키트의 상징이다. 40여년 전 드라마임에도 불구하고, 킷트는 현재 AI 에이전트 개념을 잘 묘사한 예 중 하나이다. 보다 최근의 예로는 아이언맨에 등장하는 자비스(JARVIS)를 들 수 있다. 자비스는 주인공 토니 스타크의 파트너 역할을 하며, 다양한 업무를 수행하는 AI 에이전트이다. 특히 자비스는 아이언맨 슈트의 각종 시스템을 실시간으로 모니터링하고 제어하며, 전투 상황에서 최적의 전략을 제시하는 기능은 AI 에이전트의 가능성을 잘 보여 준다. 비록 킷트와 자비스는 드라마와 영화 속 상상이지만, 우리가 궁극적으로 달성하고자 하는 AI 에이전트의 미래를 보여 주는 사례이다. 완전한 AI 에이전트는 아니지만, 아이폰의 Siri, 갤럭시폰의 Bixby 역시 가상 비서(virtual assistant)로서, 음성 명령을 기반으로 질문에 답을 해 주는 AI 에이전트 기술의 초기 단계를 보여 준다. ChatGPT의 대화기능 역시 텍스트 기반 인터페이스를 통해 사용자와 상호작용하며, 다양한 주제에 대해 유용하고 창의적인 답변을 제공하는 AI 에이전트의 초기 단계 기술이다. 다만 항상 최신 정보를 제공하지 못하거나, 잘못된 정보나 추측성 답변을 제공할 수 있으며, 복잡한 질문에 대해 제대로 된 답변을 하지 못하는 한계점도 존재한다.   An AI agent is a system that operates an optimal combination of individual artificial intelligence models to achieve a specific goal set by a human, and can effectively respond to a variety of tasks. While language models like ChatGPT can only answer specific questions, AI agents can go beyond this and handle more complex and diverse tasks simultaneously.The KITT car from the mid-1980s American TV series ‘Operation Z’ (originally titled Knight Rider) is a classic example of an AI agent. KITT was a self-driving, bulletproof, turbo-boosted, voice-activated AI agent vehicle that served as a partner to protagonist Michael Knight. KITT's ability to recognize speech and analyze situations helped Michael solve crimes. KITT's iconic red scanner lamps and sound effects move from side to side on the front of the car. Despite being set over 40 years ago, KITT is one of the best depictions of the current AI agent concept. A more recent example is JARVIS from Iron Man. Jarvis is an AI agent that serves as a partner to the protagonist, Tony Stark, and performs a variety of tasks. His ability to monitor and control the various systems in Iron Man's suit in real-time, as well as suggesting the best strategy in combat situations, demonstrates the potential of AI agents. Although KITT and Jarvis are fictionalized in TV and film, they represent the future of AI agents that we ultimately hope to achieve. While not fully AI agents, Siri on the iPhone and Bixby on Galaxy phones are virtual assistants that answer questions based on voice commands and represent the early stages of AI agent technology. ChatGPT's dialogue feature is also an early example of an AI agent that interacts with users through a text-based interface and provides useful and creative answers to a variety of topics. However, there are limitations, such as not always having the most up-to-date information, providing incorrect or speculative answers, and not being able to answer complex questions.Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.04.06
Read More
30
2025.03

매일 쏟아지는 AI 기술, 다 따라가야 할까요?

지금 우리는 빠르게 변화하는 인공지능 시대에 살고 있습니다. 매일같이 새로운 기술이 발표되고, 전 세계에서 수많은 논문이 쏟아지듯 나오고 있지요. 그런 흐름을 보고 있노라면, ‘이 모든 것을 다 따라가지 않으면 뒤처지는 건 아닐까?’ ‘나는 너무 느린 건 아닐까?’ 하는 불안감과 조급함이 자연스럽게 따라올 수 있습니다. 수많은 새로운 기술들과 논문들을 모두 읽고, 이해하고, 따라가는 것은 현실적으로 불가능합니다. 지금 이 순간에도 수백 편의 논문이 발표되고 있을 테니까요. 정말 중요한 것은, 필요한 순간이 왔을 때 내가 이 기술을 공부해서 익힐 수 있다는 자신감을 갖는 것입니다. 기술의 흐름은 항상 앞서가지만, 그 흐름을 따라잡는 힘은 바로 기초 체력에서 나옵니다. 여기서 말씀드리는 ‘기초 체력’은 신체적인 근력이 아니라, 인공지능이라는 복잡하고 빠르게 진화하는 학문을 이해하고 받아들일 수 있는 학문적 기반과 사고력을 뜻합니다. 이러한 기초 체력을 키우는 데에는 시간과 인내가 필요합니다. 처음에는 다양한 분야를 넓게 공부하면서 전반적인 흐름을 익히는 것이 좋습니다. 그리고 나중에는 특정한 주제나 기술을 깊이 있게 파고드는 경험이 꼭 필요합니다. 예를 들어, 어떤 알고리즘을 단순히 '사용'하는 것에서 그치지 않고, 그 원리와 한계, 수학적 기반, 그리고 왜 그렇게 설계되었는지를 고민해보는 것이지요. 이런 식으로 깊이 있는 하나의 경험이 쌓이기 시작하면, 처음에는 두렵게 느껴졌던 새로운 기술이나 논문도 점차 익숙하게 느껴지게 됩니다. 하나의 주제에 대해 충분히 깊이 이해하게 되면, 두 번째, 세 번째 주제를 배울 때는 훨씬 더 빠르고 수월하게 접근할 수 있습니다. 마치 운동도 처음에는 힘들지만, 어느 순간 근육이 붙고 나면 점점 즐거워지는 것처럼 말입니다. 작더라도 성공 경험을 만드는 것이 매우 중요힙니다. 스스로 끝까지 이해해본 경험, 처음부터 끝까지 구현하고 실험해본 기억— 이런 경험들이 쌓이면, 스스로가 '나는 이 분야에서 살아남을 수 있다'는 믿음을 가질 수 있게 됩니다. 물론 그 과정에서 중요한 것은, 기본이 되는 수학적 이론들과 핵심적인 방법론들을 차근차근 공부하는 것입니다. 딥러닝 프레임워크를 사용하는 데 그치지 않고, 그 아래 깔린 개념들—선형대수, 확률과 통계, 최적화 이론, 그래프 구조 등—을 자신의 언어로 이해해보는 노력이 필요합니다. 그렇게 기초가 탄탄해지면, 앞으로 새로운 기술이 아무리 빠르게 쏟아지더라도 압도되지 않습니다. ‘지금은 잘 모르지만, 필요할 때 얼마든지 스스로 학습하여 따라갈 수 있다’는 내면의 안정감과 여유가 생기게 됩니다. 그때부터는 불안감이 아니라, ‘기술을 탐구하는 즐거움’이 여러분을 이끌어 줄 것입니다. 완벽할 필요는 없습니다. 때론 흔들리더라도 계속 앞으로 나아갈 수 있는 자기만의 리듬과 힘을 갖추는 것이 중요합니다. 그것이 바로, 지금 우리가 준비해야 할 진짜 '공부'입니다.   We’re living in an era of rapidly evolving artificial intelligence. Every day, new technologies are introduced, and research papers are published at an overwhelming pace. It’s easy to feel anxious: “Do I need to keep up with all of this to avoid falling behind?” “Am I moving too slowly compared to others?” It’s simply not realistic to read, understand, and follow every new paper or technology that comes out. Even now, as you’re reading this, hundreds of papers are probably being published. What matters most is having the confidence that when the time comes, you’ll be able to learn and master what you need. And that kind of confidence comes from foundational strength. By "foundational strength," I don’t mean physical stamina. I’m talking about the intellectual foundation—the academic and conceptual readiness to absorb and understand AI, no matter how fast it evolves. To build that foundation, you’ll first need to explore a broad range of topics to understand the landscape. Then, gradually, you should dive deeply into specific areas, going beyond surface-level understanding. For example, don’t just learn how to use an algorithm. Try to understand why it works the way it does—its underlying principles, mathematical basis, limitations, and design choices. Yes, it’s difficult in the beginning. But once you’ve gone deep into just one area—deep enough to confidently answer any question about it— approaching new topics becomes far less intimidating. It’s like working out: at first, your whole body aches, but as your muscles grow, you start enjoying the process. That’s why having one or two success experiences is so important. They might be small—perhaps you fully understood a model from the ground up, or completed an implementation and experiment from start to finish. But those experiences show you: I can do this. To get there, you’ll need to steadily build your knowledge of the core theoretical concepts and key methodologies in AI. Don’t just use deep learning frameworks—learn the math beneath them: linear algebra, probability and statistics, optimization, computation graphs, and so on. Once your foundation is solid, you won’t be overwhelmed by the constant stream of new technologies. You’ll have the inner calm and confidence to say, “I may not know this now, but I can learn it when I need to.” That’s when anxiety fades, and the joy of exploration takes over. You don’t have to be perfect. You just need the strength to keep moving forward— even when things feel shaky. And that, in the end, is the real learning we need to prepare for in this age of AI.   Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.30
Read More
25
2025.03

학습(training) vs. 추론(inference)

인공지능 모델 개발 과정은 크게 학습과 추론의 두 단계로 구분된다. 학습은 인공지능 모델을 생성하는 과정으로, 생산자 관점에서 접근해야 하는 반면, 추론은 생성된 모델을 활용하는 행위로, 소비자 관점에서 접근할 수 있다. 요즘 젊은 세대들이 테니스를 많이 친다고 하는데, 테니스 코트에 비유하자면, 학습은 초기비용이 많이 드는 하드코트에 해당하며, 추론은 유지비용이 많이 드는 클래이 코트에 해당한다. 학습 과정에서는 고성능 컴퓨팅 자원과 방대한 데이터가 필요하며, 이로 인해 초기 투자 비용과 전력 소비가 매우 크다. 예를 들어, 대규모 신경망 모델을 학습시키기 위해서는 GPU(graphics processing unit)나 TPU(tensor processing unit)와 같은 고성능 컴퓨팅 자원이 필수적이다. 이러한 자원은 복잡한 연산을 병렬로 처리하여 모델의 정확도를 높이는 데 기여하지만, 동시에 높은 비용과 전력 소비를 요구한다. 따라서 학습 단계에서는 고성능 하드웨어 자원을 활용하여 효율적으로 모델을 학습시키는 것이 중요하다. 학습이 완료된 모델은 다양한 사용자에 의해 활용되며, 이때 중요한 요소는 바로 추론의 효율성이다. 추론은 모델이 실제 문제를 해결하기 위해 작동하는 과정으로, 사용자가 많을수록 추론 속도와 전력 소모가 성능에 큰 영향을 미친다. 예를 들어, ChatGPT와 같은 대화형 인공지능 시스템은 동시 사용자 수가 많아질 경우, 추론 효율성이 시스템 전체 성능을 결정짓는 핵심 요소로 작용한다. 따라서 추론 과정에서는 전력 대비 성능이 중요한 설계 요소로 부각된다. 인간의 능력 역시 학습과 추론으로 나누어 볼 수 있다. 학습 능력은 시간을 가지고 꾸준하게 공부하여 지식을 쌓은 과정이다. 추론은 쌓은 지식을 적절히 활용하는 과정이다. 우리나라 교육 시스템에서는 학습 보다는 추론 능력이 뛰어난 학생이 절대적으로 유리하다. 정해진 시간 내에 (그것도 매우 짧은 시간내) 정답을 맞추어야만 좋은 내신과 수능점수를 받을 수 있는 우리나라 교육 시스템에서는 본인이 학습한 지식을 얼마나 빨리 내뱉을 수 있는지가 매우 중요하다. 물론 학습과 추론은 꽤 높은 상관관계가 있지만 소수이긴 하지만 그 관계가 적은 학생들에게는 절대적으로 불리하거나 유리하다. 성실하게 열심히 학습을 했지만 짦은시간 내 그것을 쏟아내는 추론능력이 부족한 학생들에게는 절대적으로 불리한 시스템이다. 내가 생각하는 올바른 교육평가는 학습시간을 성실히 소화한 학생들이 우수한 결과를 받게 하는 것이다. 이를 실현하기 위해서는 단시간에 평가하는 in-class 시험을 줄이고, 충분한 시간을 가지고 본인의 학습 역량을 보일 수 있는 과제, 프로젝트, 동아리 활동 등으로 평가를 하면 좋을 것 같다.  The process of developing an AI model is divided into two main phases: learning and inference. Learning is the process of creating an AI model and should be approached from a producer's perspective, while inference is the act of using the created model, which can be approached from a consumer's perspective. If we use the analogy of a tennis court, where young people play a lot of tennis, learning is the hard court with high initial costs, and inference is the clay court with high maintenance costs.The learning process requires high-performance computing resources and large amounts of data, which results in very high initial investment and power consumption. For example, training large-scale neural network models requires high-performance computing resources such as graphics processing units (GPUs) and tensor processing units (TPUs). These resources contribute to increasing the accuracy of the model by processing complex computations in parallel, but they also come at a high cost and power consumption. Therefore, it is important to leverage high-performance hardware resources during the training phase to train the model efficiently.Once trained, the model is used by various users, and the efficiency of the inference is an important factor. Inference is the process by which the model works to solve real-world problems, and the more users there are, the more the inference speed and power consumption will affect performance. For example, in a conversational AI system like ChatGPT, inference efficiency becomes a key factor in determining the overall performance of the system when the number of concurrent users increases. This makes power-to-performance a critical design factor in the inference process.Human capabilities can also be divided into learning and inference. Learning is the process of accumulating knowledge through consistent study over time. Inference is the process of using the accumulated knowledge appropriately. In our education system, students who are better at inference. than learning have an absolute advantage. In our education system, where the only way to get good grades and SAT scores is to get the right answers within a set time frame (and even then, a very short time frame), it's very important to be able to recall what you've learned quickly. Of course, learning and inference. are quite highly correlated, but for a small minority of students, the relationship is absolutely disadvantageous or advantageous. It is an absolute disadvantage for students who have studied hard and diligently, but lack the inference. skills to produce it in a short period of time. In my opinion, the right way to evaluate education is to reward students who put in the time and effort to learn. To achieve this, we should reduce the number of in-class exams that are assessed in a short period of time and use assignments, projects, club activities, etc. that allow students to demonstrate their learning capabilities over a longer period of time.  Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.25
Read More
17
2025.03

할루시네이션 (Hallucination)

거대 언어 생성 모델인 챗지피티(ChatGPT)와 클로드(Claude) 등의 대표적인 단점으로 흔히 ‘할루시네이션(hallucination)’이 꼽힌다. 이는 생성 모델이 질문에 대해 잘못된 답변을 마치 사실인 것처럼 그럴듯하게 만들어내는 현상을 의미한다. 물론 이런 오류가 문제를 일으킬 수도 있지만, 한정된 학습 정보로 만들어진 생성 모델이 할루시네이션을 보인다는 사실 자체는 오히려 자연스러운 현상이다. 예를 들어, 인간도 비슷한 상황을 겪는다. 가령 옆에 있는 교수에게 질문한다고 해보자. 교수는 잘 아는 분야에 대해서는 정확한 답변을 하겠지만, 익숙하지 않은 주제라면 그냥 "모른다"고 하는 사람도 있을 것이다. 하지만 잘난 체하는 성향이 있는 교수라면, 아는 정보를 조합해 최대한 그럴듯한 답을 내놓을 수도 있다. 그러나 그 분야의 전문가가 듣기에는 그 답변이 터무니없거나 사실과 다를 수 있다. 우리는 종종 "어떻게 저렇게 그럴듯하게 틀린 말을 하지?"라며 놀라곤 한다. 유튜브나 방송에서도 전문가처럼 보이는 사람이 자신감 있게 설명하는 모습을 보고, 실제 전문가들이 "저 사람, 진짜 잘도 속이네"라며 비웃는 경우도 많다. 생성 모델도 마찬가지다. 제한된 정보로 학습되었기 때문에 이런 현상이 나타나는 것이다. 하지만 이는 오히려 인간처럼 사고하고 답변하도록 훈련 받았다는 증거이지, 일부러 아는 내용을 왜곡해 거짓 답변을 하려는 의도가 있는 것은 아니다. 결국, 인간이 아는 범위 내에서 최대한 논리를 맞춰 말하는 것과 비슷한 원리로 작동하는 것이다. 생성 모델은 학습한 지식을 바탕으로 답변을 생성하기 때문에, 충분한 데이터가 없거나 익숙하지 않은 분야에서는 정확한 답을 내놓기 어렵다. 따라서 생성 모델이 할루시네이션을 일으킬 수 있다는 점을 인식하고, 애매한 정보는 신뢰할 수 있는 서적이나 검색을 통해 검증하는 것이 중요하다. 앞으로 인공지능 시대에는 이러한 오류를 판단하고 걸러낼 수 있는 능력이 더욱 중요해질 것이다. 결국, 어중간한 사람들은 퇴출되고, 각 분야의 최고의 전문가들이 인공지능과 협력하며 일하는 시대가 오지 않을까 생각해 본다. A common drawback of large language generation models, such as ChatGPT and Claude, is “hallucination.” This is when a generative model produces a false answer to a question that is plausible as if it were true. While this error can be problematic, it is actually quite natural for generative models with limited training information to exhibit hallucination. For example, humans experience a similar situation. For example, imagine asking a question to the professor next to you. The professor might give you a precise answer in a subject they know well, but if the subject is unfamiliar, they might just say “I don't know.” However, if the professor has a tendency to be arrogant, he or she might try to cobble together the information he or she knows and come up with the most plausible answer possible. However, to an expert in the field, the answer might sound absurd or untrue. We often wonder, “How can they be so plausibly wrong?” We often watch YouTube videos or broadcasts where someone who seems to be an expert explains things confidently, while real experts laugh and say, “Wow, that guy is really good at fooling people.” The same is true for generative models. The same is true for generative models. They are trained with limited information, which is why they behave the way they do. But this is evidence that they've been trained to think and answer like humans, not that they're intentionally distorting what they know to give false answers. In other words, it works in a similar way to how humans speak, making as much sense as possible within the confines of their knowledge. Because generative models generate answers based on the knowledge they have learned, they are less likely to be accurate in areas where they don't have enough data or are unfamiliar. Therefore, it is important to recognize that generative models can make mistakes, and to verify any ambiguous information with reliable books or searches. In the future of AI, the ability to recognize and filter out these errors will become even more important. Eventually, the mediocre will be weeded out and the best experts in their fields will be working in collaboration with AI.   Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.17
Read More
14
2025.03

Convolution Filters

Convolution Filters  널리 사용되는 인공지능 방법론 중에는 합성곱 신경망(convolutional neural networks)이라는 모델이 있다. 분석하고자 하는 데이터는 일반적으로 작은 객체들의 집합으로 구성되어 있다. 예를 들어, 정원에 앉아 있는 강아지 이미지에는 강아지뿐 아니라 배경이 되는 하늘, 나무, 꽃, 잔디 등이 혼합되어 있다. 강아지 자체를 보더라도 눈, 코, 귀 입, 털 등 작은 객체들로 나눌 수 있다. 이 객체들을 구성하는 원 데이터 (이미지 픽셀)는 개별적으로 분석하기 보다는 하나의 새로운 객체로 취급하는 것이 더 효과적이다. 즉, 이미지의 각픽셀을 따로 분석하기보다는, 특정 객체를 구성하는 픽셀들을 하나의 단위로 묶어 분석하는 방식이 보다 효율적이라는 것이다. 예를 들어, 강아지 코를 이루고 있는 50개의 픽셀을 하나의 단위로 묶어 이를 강아지 이미지 예측에 활용하자는 아이디어가 합성곱 신경망의 핵심이다. 50개의 개별 픽셀을 하나로 묶기 위해 사용하는 기술이 합성곱 연산 (convolution)이다. 이는 원 이미지 (혹은 feature map)에 특정 사이즈의 필터를 적용하여 계산하는 과정이다. 구체적으로는 필터에 있는 값(가중치)과 그에 해당하는 feature map의 값을 개별적으로 곱한 후, 모두 더하는 방식으로 이루어진다. 일상에서 필터는 찌꺼기를 걸러내는데 사용된다. 찌꺼기를 거른다는 것은 핵심만을 추리기 위함이다. 핵심을 파악한다는 것은, 너저분하게 널려 있는 것 중에 버릴 것은 버리고 필요한 것은 정리하여 중요한 것에 집중할 수 있도록 돕는 일이다. 중요한 일에 집중하며 사는 것은 유한한 시간을 살아가는 우리 모두에게 꼭 필요한 일이다. 중요한 것은 그것이 결핍되었을 때 인지할 수 있다. 내 어릴 적 아버지가 장기 출장을 가신적이 있었다. 평소에는 아버지의 존재를 크게 느끼지 못했지만, 안 계시니 불편한 점이 한둘이 아니었다. 내 책상도 아버지가 며칠만 안 계시니 금방 지저분해졌다. 알고보니, 내 책상 위의 지우개 가루, 마시다만 물컵, 과자봉지, 휴지 조각을 아무도 모르게 치워주셨던 분이 아버지였다. 우리 인생에는 잡스러운 것들을 날려 보내고 정말 중요한 것만 남길 수 있는 “인생필터”가 필요하다. 다만 필터는 정기적으로 청소를 하지 않으면 막히기 때문에, 주기적인 청소가 반드시 필요하다.     One of the most popular AI methodologies is convolutional neural networks. The data you want to analyze usually consists of a collection of small objects of interest. For example, an image of a puppy sitting in a garden contains not only the puppy, but also the sky, trees, flowers, and grass in the background. Even the dog itself can be broken down into smaller objects: eyes, nose, ears, mouth, fur, etc. The raw data (image pixels) that make up these objects are better treated as one new object rather than analyzed individually. In other words, rather than analyzing each pixel in the image separately, it is more efficient to analyze the pixels that make up a particular object as a unit. For example, the idea of lumping the 50 pixels that make up a dog's nose into a single unit and using it to predict a dog image is at the heart of convolutional neural networks. The technique used to group the 50 individual pixels together is called convolution. It is computed by applying a filter of a certain size to the original image (or feature map). Specifically, it works by multiplying the values (weights) in the filter and the corresponding values in the feature map individually, and then adding them all together. In everyday life, filters are used to filter out the dregs. To filter out the dross is to get to the point. To get to the point is to discard the clutter and organize what you need so that you can focus on what matters. Focusing on what's important is something we all need in our finite time. The key is to be able to recognize when it's lacking. When I was growing up, my father traveled for business trips. I didn't usually feel his presence much, but there were a lot of things I didn't like about his absence. My desk got messy after he was gone for just a few days. As it turns out, it was my dad who cleaned up the eraser powder, drinking cups, snack bags, and tissues on my desk without anyone noticing. We all need a “life filter” in our lives that allows us to let go of the clutter and keep what really matters. However, filters get clogged if they're not cleaned regularly, so periodic cleaning is essential.    Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.14
Read More
10
2025.03

샤플리 값 (Shapley Value)

샤플리 값 (Shapley Value)  뉴럴네트워크를 기반으로 한 딥러닝 모델은 정확한 예측 결과를 제공하지만, 이러한 결과가 어떤 원인에 의해 도출되었는지 직관적인 설명은 어렵다. 이때 사용되는 해결책 중 하나가 Shapley value를 이용한 방법론이다. 이 방법론의 핵심은 예측에 기여하는 여러 인자 중 하나씩 제외한 뒤, 나머지 인자들만 사용하여 얻은 예측결과를 전체 인자를 사용한 결과와의 차이를 통해 비교하는 것이다. 이 차이가 크다는 것은 해당 변수를 사용하지 않으면 성능 하락폭이 크다는 것을 의미하기 때문에, 해당변수가 전체 성능에 미치는 영향이 크다는 것을 의미한다. 즉, 각 인자의 중요도를 그 인자를 제외했을 때의 결과를 통해 판단하는 것이다. 우리가 가지고 있는 것에 대한 소중함 정도는 그것의 결핍을 경험했을 때 올바르게 측정될 수 있다. 현재 우리들이 아무렇지도 않게 누리고 있는 것들 중에서 그것이 사라진다면 미치도록 그리워질 것이 무엇일지 주기적으로 생각해 보는 것이 필요하다. 이미 나에게는 없지만 아버지, 어머니는 내가 젊을 때 내 곁을 언제나 지켜줄 분들이라고 생각했다. 3년전, 2년전 연이어 세상을 떠나신 뒤, 그리움의 정도는 이루 말할 수 없이 크다. 내게 너무 소중한 분들이 아니었나 싶다. 현재 가지고 있지만 당연하다고 생각하는 나의 가족, 나의 직업, 나의 사무실, 나의 건강, 나의 친구들도 언젠가는 하나씩 내 곁을 떠날 것이다. 생각만 해도 마음이 아프고 힘들다. 다른 것 보다 이런 것을 소중히 여기면서 살아가야겠다.  Deep learning models based on neural networks provide accurate predictions, but it is difficult to intuitively explain what causes these results. One solution is the Shapley value method. The idea is to remove one of the many factors that contribute to the prediction, and then compare the predictions obtained using only the remaining factors to the results obtained using all the factors. A large difference indicates that the variable has a large impact on the overall performance, because the performance drop without that variable is large. In summary, the importance of each factor is determined by examining the impact of its exclusion. The degree to which we value what we have can only be properly measured when we experience its absence. It’s worth reflecting from time to time on the things we take for granted, asking ourselves: what would we miss deeply if it were suddenly gone? When I was younger, I believed my parents would always be by my side. However, after losing my father three years ago and my mother two years ago, the depth of my longing for them is beyond words. Their absence has made me realize how truly precious they were. I have my family, my job, my office, my health, and my friends, all of which I often take for granted. Yet, one day, these too will inevitably leave me, one by one. The thought is painful and difficult to bear, but it’s a reminder to cherish them while they are still with me. I must strive to live a life that values these treasures above all else.  Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.10
Read More
06
2025.03

시계열 데이터 (Time Series Data)

데이터 분석에서 시계열 데이터를 분석하기 위해서는 특별한 방법론이 필요하다. 시계열 데이터는 말 그대로 시간의 흐름에 따라 수집된 데이터를 의미한다. 단순히 시간에 따라 수집된 데이터라고 생각하면, 우리가 분석하는 모든 데이터가 시계열 데이터처럼 보일 수 있다. 왜냐하면 우리는 빅뱅 이후 시간이 존재하는 공간에서 살아가고 있기 때문에 모든 데이터가 시간의 영향을 받을 수 밖에 없기 때문이다. 그러나 시계열 데이터인지 판단하는 핵심 기준은 데이터의 순서가 분석에 영향을 미치는지 여부이다. 시간에 따라 수집된 데이터라도, 그 순서가 분석 결과에 영향을 미치지 않으면 굳이 시계열 분석 방법론을 적용할 필요가 없다. 시계열 데이터 분석 방법론의 특징은 과거 데이터의 정보를 누적하여 현재를 판단하는 것이다. 이는 현재 정보가 과거 정보의 누적된 결과라는 사실에 기반한다. 예를 들어, 인공지능에서 널리 사용되는 시계열 방법론인 순환신경망(recurrent neural network; RNN)는 과거 데이터를 누적한 정보를 특징벡터로 사용한다. 기본 RNN에서 발전된 LSTM(long short-term memory)이나 GRU(gated recurrent unit) 역시 과거 데이터를 누적하여 얻어진 정보를 사용한다. 이처럼 순서를 기준으로 보면 텍스트 데이터나 유전체 데이터 (뉴클리오타이드, 아미노산)도 모두 시계열 데이터로 간주할 수 있다. 시계열 여부를 판단하는 가장 간단한 방법은, 분석하려는 데이터의 순서를 뒤바꿨을 때 분석 결과에 영향을 미치는지 확인하는 것이다. 우리 삶에서도 올바른 의사결정을 위해서는 과거의 경험이 매우 중요하다. 지금의 나를 돌아보면, 내가 어떤 선택을 했고, 어떤 길을 걸어왔는지 알 수 있다. 내가 한 행동들, 내가 내린 결정들이 지금의 나를 만든 것이다. 그렇다면, 미래의 나는 어떻게 될까? 그것은 지금 이 순간, 내가 어떤 결정을 내리고, 어떤 행동을 하느냐에 달려 있다. 삶은 반복되는 과거의 연속이자, 새로운 미래를 만들어가는 과정이다. 결국, 과거와 현재, 그리고 미래는 서로 깊이 연결되어 있다는 점을 잊지 말아야겠다.  Analyzing time series data in data analytics requires a special methodology. Time series data are collected over time. If we think of it simply as data collected over time, all of the data we analyze can look like time series data. This is because we live in a space where time has existed since the Big Bang, so all data is subject to the effects of time. However, a key criterion for determining whether data is time series is whether the order of the data affects the analysis. Even if the data is obtained over time, there is no need to apply time series analysis methodology if the order of the data does not affect the results of the analysis. Time series data analysis methodology is characterized by accumulating information from past data to determine the present. This is because current information is based on the cumulative result of past information. For example, the recurrent neural network (RNN), a representative time series methodology in artificial intelligence, uses the accumulated information of past data as a feature vector. LSTM (long short-term memory) and GRU (gated recurrent unit), which evolved from the basic RNN, also use information obtained by accumulating past data. In this order, text data or genomic data (nucleotides, amino acids) can also be considered time series data. The simplest way to determine if something is a time series is to see if reversing the order of the data you want to analyze affects the results of your analysis. In our lives, our past experiences are very important for making the right decisions. When I look back at who I am today, I can see the choices I've made and the path I've traveled. The actions I took, the decisions I made, made me who I am today. So, what will your future be like? It depends on the decisions you make and the actions you take in the here and now. Life is a continuation of the past and a process of creating a new future. In the end, the past, present, and future are deeply interconnected. Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.06
Read More
03
2025.03

인공신경망 (Artificial Neural Networks)

인공지능 모델은 다양하다. 기술적으로 설명하자면, 인공지능 모델의 종류는 아웃풋을 표현하기 위한 인풋들의 조합 형식에 따라 결정된다. 가장 간단한 선형회귀모델은 인풋들의 선형결합 (더하기, 뺴기로만 결합)으로 아웃풋을 표현한다. 로지스틱회귀모델은 인풋들의 선형결합을 비선형 변환한 값으로 아웃풋을 표현한다. 대부분의 인공지능 모델은 선형회귀모델과 로지스틱회귀모델의 구조를 바탕으로 하고 있다. 최근 널리 쓰이고 있는 딥러닝의 근간이 되는 인공신경망 모델은 로지스틱회귀모델을 여러 번 적용한 모델이다. 즉, 인풋들의 선형결합과 비선형 변환을 여러 번 반복하여 아웃풋을 표현하는 것이다. 인공지능모델의 최종 목표는 인간의 뇌를 모방하는 것인데, 인공신경망 모델이 우리 뇌가 인지하는 과정을 가장 잘 모방하고 있다. 실제 인간의 뇌는 약 860억 개의 뉴런을 포함하고 있다고 한다. 뉴런은 신경계의 기본 단위로, 각각 전기 신호와 화학 신호를 통해 정보를 전달하고 처리한다. 뉴런 간의 소통 경로는 시냅스를 통해 이루어지며, 시냅스는 뉴런이 서로 연결되고 신호를 주고받는 구조를 형성한다. 인간의 뇌에는 각 뉴런이 평균적으로 약 1,000개의 시냅스를 가지고 있어 총 시냅스의 수는 약 100조 개에 달한다. 인공신경망 모델은 노드와 연결선으로 구성되는데, 이는 실제 뇌에서 뉴런과 시냅스에 해당한다. 앞으로 획기적인 구조가 나오지 않는 한, 인간 뇌를 모방한 인공신경망 계열의 모델이 주롤 이룰 것으로 보인다.     Many different AI models exist. The type of AI model is determined by how the inputs are combined to represent the output. The simplest linear regression model expresses the output as a linear combination of inputs (combined only by addition and subtraction). A logistic regression model expresses the output as a nonlinear transformation of the linear combination of inputs. Most AI models are based on the structure of linear regression and logistic regression models. The artificial neural network model, which is the basis of deep learning, is a model that applies the logistic regression model many times. In other words, the output is expressed by repeating the linear combination of inputs and nonlinear transformation many times. The ultimate goal of AI models is to mimic the human brain, and neural network models best mimic the cognitive processes of the human brain. The actual human brain contains about 86 billion neurons. Neurons are the basic units of the nervous system, each of which transmits and processes information through electrical and chemical signals. The pathways of communication between neurons are through synapses, which are the structures that allow neurons to connect to each other and send and receive signals. In the human brain, each neuron has an average of about 1,000 synapses, making the total number of synapses about 100 trillion. A neural network model consists of nodes and connections, which correspond to neurons and synapses in the real brain. Unless a breakthrough structure is discovered in the future, artificial neural network models that best mimic the human brain will dominate.  Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission. 
Written by 김성범 교수님 김성범 교수님
2025.03.03
Read More
01
2025.03

Some Concerns in AI

AI를 연구하는 입장에서 필요성과 장점에 대해서만 생각해 보았지, AI 로부터 발생할 우려점에 대해서는 진지하게 고민해 볼 기회가 없었다. 잠시 고민해 본 결과를 글로 남긴다. 얼마 전, 우리나라 과학기술정보통신부 장관이 대표로 참석한 프랑스 파리 ‘AI Action Summit’ 관련 기사를 읽었다. 이 회의에서는 AI의 윤리적 문제와 위험성 등 주요 이슈가 논의되었을 것으로 보이지만, 과연 구체적인 실행 방안까지 다루어졌을지는 의문이 들었다. 대체로 이러한 정상회의에서는 AI의 방향성과 윤리적 고민을 강조하는 담론 중심의 논의가 이루어지는 경우가 많다. 물론 이러한 논의 자체가 의미 없는 것은 아니지만, 실질적인 해결책이나 정책적 실행으로 이어질지는 불확실하다. 그럼에도 불구하고, 저명한 인사들이 지속적으로 AI의 부작용에 대해 논의하는 것은 중요한 의미가 있다고 생각한다. 사실 요즘 AI를 둘러싼 흐름을 보면, 과연 이 기술이 인류 발전을 위한 것인지, 아니면 단순한 경쟁의 산물인지 고민하게 된다. 역사를 돌이켜보면, 핵심 기술들이 발전한 배경에는 인류의 이익보다 경쟁 심리가 더 큰 역할을 했다. 개인 간 경쟁, 기업 간 경쟁, 국가 간 경쟁, 체제 경쟁, 종교 간 경쟁—이러한 이유로 기술이 개발되어 왔지, 진정 인간을 위한 개발이었는지에 대해서는 깊이 생각해본 적이 거의 없다. 자동차, 핵, 인터넷, 스마트폰과 같은 기술들도 인류의 삶을 편리하게 만든 측면이 있지만, 그 과정에서 부작용과 사회적 문제들도 함께 발생했다. AI도 마찬가지다. AI는 인간의 정신적 노동을 대체하며 많은 긍정적인 영향을 미칠 수 있지만, 동시에 우리가 상상조차 못한 부작용과 폐해를 초래할 가능성도 크다. 최악의 경우, 공상과학 영화에서 보던 AI가 인간을 지배하는 세상이 현실이 될 수도 있고, AI의 오남용으로 인해 인류가 오히려 피폐해질 수도 있다. 원래는 AI를 통해 인류의 번영을 도모하려 했던 것인데, 그 결과가 정반대로 나타날 수도 있다는 것이다. 단순히 경쟁적으로 AI를 개발하는 것이 정말 옳은 방향인지 돌아볼 필요가 있는 시점이다. 요즘 대학들도 AI 관련 연구와 성과를 내세우며 랭킹 경쟁을 하고, 기업들은 경쟁사보다 우위를 점하기 위해 AI를 도입하며, 국가 간 AI 기술 패권 경쟁도 심화되고 있다. "중국이 어떤 AI 기술을 개발했다", "미국이 AI 분야에서 어떤 성과를 냈다" 같은 뉴스들이 쏟아지는 상황에서, 정작 우리는 AI를 왜 개발하는지, 무엇을 위해 활용해야 하는지를 깊이 고민하지 않고 있는 것은 아닌가? AI를 무작정 발전시키는 것이 아니라, 어떻게 하면 AI를 인류와 사회를 위해 지속 가능하게 활용할 것인지를 더 진지하게 논의해야 할 때인 것 같다. As a researcher of AI, I have thought about the necessity and benefits of AI, but I have not had a chance to seriously think about the concerns that arise from AI. Here are my thoughts. I read an article about the 'AI Action Summit' in Paris, France, which was attended by the Minister of Science and ICT of South Korea. In general, these summits tend to be discourse-driven discussions that emphasize the direction of AI and ethical concerns. While these discussions are not without merit, it is unclear whether they will lead to practical solutions or policy implementation. Nevertheless, I think it is important that prominent figures continue to discuss the adverse effects of AI.   In fact, the current buzz around AI makes me wonder if this technology is for the betterment of humanity or simply a product of competition. If we look back at history, the development of key technologies has been driven more by competition than by the good of humanity. Competition between individuals, competition between companies, competition between nations, competition between regimes, competition between religions - we rarely stop to think about whether or not the development of these technologies was truly for the good of humanity.   Technologies like the automobile, nuclear power, the internet, and smartphones have made life easier for humans, but they have also created side effects and social problems along the way. The same is true for AI. AI can replace human mental labor and have many positive impacts, but it also has the potential to cause side effects and disruptions that we can't even imagine.   In the worst case scenario, the world we see in science fiction movies could become a reality, or AI could be misused to the detriment of humanity. The idea is that AI is meant to help humanity thrive, but it can also have the opposite effect.   So we need to think about this a little bit more deeply, and ask ourselves if we are really on the right track by simply developing AI competitively. Nowadays, universities are competing for rankings with AI-related research and achievements, companies are adopting AI to gain an edge over their competitors, and countries are competing for AI technology supremacy.   With all the news about “what AI technology China has developed” and “what the U.S. has achieved in the AI field,” I wonder if we are not thinking deeply about why we are developing AI and what we should utilize it for. I believe that sustainability of AI is the most important key consideration, and it is time to have a more serious discussion about how to use AI sustainably for the benefit of humanity and society, rather than just developing AI for the sake of it.Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.01
Read More