Professor's Notes

Professor's Notes

Number of entries: 20 (필터 적용됨)
09
2025.05

AI 위험성

AI 위험성 자동차 산업이 발전할 수 있었던 이유는, 빠르게 달리는 자동차가 사람 앞에서 정확히 멈출 수 있다는 신뢰가 있었기 때문이다. 새로운 기술이 등장하고, 그것이 물리적인 형태로 구현될 때, 안전이 보장되지 않는다면 사람들은 이를 사용하지 않을 것이다. 그러나 AI의 경우는 조금 다르다. AI는 자동차처럼 직접적으로 우리의 생명을 위협하지 않으며, 스마트폰이나 TV처럼 신체에 즉각적인 영향을 미치는 것도 아니다. 또한, 정신적으로도 직접적인 문제를 일으킨 사례도 많지 않다. 즉, AI로부터 발생할 수 있는 위험성이 아직 충분히 밝혀지지 않았고, 이에 대한 경각심도 상대적으로 낮은 상황이다. 하지만 AI는 거대한 맹수와 같다. 지금은 발톱을 드러내지 않고 있지만, 그 잠재적 위험에 대해서는 전문가들 사이에서도 경고의 목소리가 나오고 있다. 특히, 겉으로 드러나지 않는 기술일수록 그 위험성을 면밀히 분석하고 연구할 필요가 있다. AI가 향후 어떤 방식으로 인간 사회에 영향을 미칠지는 아직 예측하기 어렵지만, 현 시점에서 적절한 규제와 윤리적 기준이 마련되지 않는다면, 나중에는 단순한 신호등과 같은 규제 수준이 아니라 훨씬 더 강력한 통제 시스템이 필요할지도 모른다. AI는 결국 인간의 의지에 의해 통제되는 기술일 뿐이다. 따라서 이를 활용하는 인간의 대한 통제 시스템이 반드시 필요하다. 결론적으로, 우리는 AI의 발전을 신중히 검토하고, 그 위험성을 미리 대비해야 한다.   The automotive industry developed because people trusted that a fast-moving car could stop in front of them. When new technologies emerge, and when they are physically implemented, people will not use them if they are not safe. But, AI is a little different. AI does not directly threaten our lives like cars, it does not have an immediate physical impact like smartphones or TVs, and it has not caused many direct mental problems. This means that the dangers it poses are not yet fully understood, and awareness of them is relatively low. AI is like a beast. It may not be showing its claws right now, but experts are warning of its potential dangers. The more invisible the technology, the more it needs to be analyzed and studied. It is still difficult to predict how AI will affect human society in the future, but if proper regulations and ethical standards are not put in place now, we may need much stronger control systems in the future than just traffic lights. AI is, after all, a technology that is controlled by human will, so it is imperative that there is a system of control over the humans who use it. In conclusion, we need to carefully review the development of AI and prepare for its risks. Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.05.09
Read More
30
2025.04

연합학습 (Federated Learning)

연합학습(federated learning)은 데이터를 중앙 서버로 전송하지 않고, 각 로컬 디바이스(스마트폰, 가전제품 등)에서 독립적으로 학습한 모델 정보(파라미터)만을 활용해 글로벌 모델을 구축하는 학습 방식이다. 이 방식의 핵심은 개별 기기에 저장된 데이터를 중앙(외부)으로 전송하지 않고도 모델을 학습시킬 수 있다는 점에 있다. 연합학습의 첫 번째 단계는 중앙 서버에서 초기 모델을 생생한 후 이를 각 로컬 디바이스에 배포한다. 이후 각 로컬 디바이스는 자신만의 데이터(사용자건강정보, 금융거래이력, 가전사용패턴 등)를 사용하여 모델을 학습한다. 이 단계에서는 원본 로컬 데이터가 해당 디바이스를 벗어나지 않는다. 결과적으로 원본 데이터가 절대 외부로 유출되지 않는다. 로컬 학습이 완료되면, 각 디바이스는 학습 과정에서 생성된 모델의 정보(예를 들어, 뉴럴네트워크 모델의 가중치와 같은 파라미터)를 중앙 서버에 전송한다. 이때 로컬 디바이스 모델 학습에 사용된 데이터가 전송되는 것이 아니라 학습 결과인 모델 정보만이 전송되므로 데이터 유출 위험이 근본적으로 차단된다. 중앙 서버는 각 디바이스에서 올라온 모델 정보를 통합하여 하나의 글로벌 모델을 생성한다. 이 과정에서는 통계적 기법이나 최적화 알고리즘을 활용하여 각 디바이스의 학습 결과를 반영한다. 가장 기본적인 통합 방법으로는 각 로컬 디바이스의 가중치를 평균 내어 업그레이드된 글로벌 모델을 생성하는 방식이다. 이렇게 개선된 글로벌 모델은 다시 각 로컬 디바이스에 배포되고, 새로운 로컬 데이터를 바탕으로 재 학습된다. 이러한 단계를 반복적으로 수행하면서 모델의 성능이 점진적으로 개선된다. 연합학습의 가장 큰 장점은 데이터 보안을 보장한다는 점이다. 데이터가 로컬 디바이스에만 저장되고, 중앙 서버로는 모델 정보만이 전송되므로 민감한 로컬 데이터가 외부로 노출되지 않는다. 이러한 특성은 의료, 금융, 제조 데이터처럼 유출에 민감한 정보를 다룰 때 특히 유용하다 또한, 연합학습은 네트워크 효율성을 높이는 데 기여한다. 로컬의 원본 데이터를 대량으로 전송할 필요가 없으므로 네트워크 대역폭 사용량이 감소하고, 전력이 제한된 환경에서도 효과적으로 작동할 수 있기 때문이다. 이는 대규모 데이터 전송이 어려운 환경에서 연합학습의 유용성을 더욱 부각시킨다 종합적으로, 연합학습은 중앙서버에서 글로벌 모델을 유지하면서도 각 로컬 디바이스에 있는 데이터를 활용한 개인화된 학습을 가능하게 한다. 이는 사용자의 특성에 맞춘 서비스를 제공하는 동시에, 전 세계적으로 다양한 데이터를 활용하여 모델의 보편성과 성능을 유지할 수 있다.Federated learning is a learning method that builds a global model using only the model information (parameters) learned independently on each local device (smartphone, home appliance, etc.) without sending data to a central server. The key to this method is that the data stored on individual devices can be trained without sending it to a central (external) location.The first step in federated learning is to train an initial model on a central server and then distribute it to each local device. Each local device then trains the model using its own data (user health information, financial transaction history, home appliance usage patterns, etc. At this stage, the original local data never leaves the device. Once the local training is complete, each device sends the model information (e.g., parameters such as the weights of the neural network model) to the central server. The data used to train the local device model is not transmitted, only the model information that is the result of the training, essentially eliminating the risk of data leakage. The central server integrates the model information from each device to create a single global model. This process uses statistical techniques or optimisation algorithms to reflect the learning results of each device. The most basic integration method is to average the weights of each local device to create an upgraded global model. This improved global model is then deployed to each local device and retrained again based on new local data. By iterating through these steps, the performance of the model is incrementally improved. The biggest advantage of federated learning is that it ensures data security. Because data is stored only on the local device and only model information is sent to the central server, no sensitive local data is exposed to the outside world. This is especially useful when dealing with security sensitive information such as healthcare, financial, and manufacturing data.In addition, federated learning contributes to network efficiency. By eliminating the need to transfer large amounts of local source data, it reduces network bandwidth usage and can operate effectively in power-limited environments. This makes federated learning more useful in environments where large data transfers are difficult. Overall, federated learning enables personalised learning using data on each local device while maintaining a global model on a central server. This enables services to be tailored to the user's characteristics, while maintaining the universality and performance of the model by leveraging data from around the world.Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.04.30
Read More
21
2025.04

인공지능 시대에 꼭 필요한 역량

나는 기업과 학교가 협력하는 산학협력 연구를 많이 해왔다. 산학협력을 시작할 때 가장 먼저 하는 일 중 하나가 연구 제안서를 작성하는 것이다. 제안서에는 연구 목적, 제안 내용, 기대되는 결과물 등 연구의 전반적인 계획이 포함된다. 하지만 실제 연구가 시작되면 계획대로 모든 것이 정확하게 진행되는 경우는 거의 없다. 보통은 초기 계획을 기반으로 연구를 수행하고, 그 결과를 기업과 공유한다. 그러면 기업은 그 결과를 보고 새로운 궁금증을 갖는다. "이런 결과가 나왔는데, 그렇다면 다른 방식으로 접근해보면 어떨까?" 이런 질문이 나오면서 연구는 새로운 방향으로 확장된다. 사실 이런 질문들은 처음 작성한 제안서에 포함되어 있을 수도 있고, 전혀 예상치 못한 새로운 질문일 수도 있다. 연구가 진행되면서 결과를 확인하고, 그 과정에서 의문이 생기고, 더 발전된 질문이 탄생하는 것이다. 이 과정은 연구뿐만 아니라, 인공지능 시대를 살아가는 우리 모두에게 중요한 교훈을 준다. 요즘 ChatGPT 같은 언어 생성 모델들이 나오면서 가장 중요한 능력 중 하나가 "좋은 질문을 던지는 능력" 이 되었다. 하지만 더 중요한 건 인공지능의 1차 답변을 보고, 그걸 바탕으로 더 나은 질문을 할 수 있는 능력이다. 예를 들어, ChatGPT가 1차 답변을 줬을 때, "이 답변이 정확한가?", "이 답변에서 더 깊이 탐구할 부분은 무엇인가?" 등의 이어지는 질문을 던질 수 있어야 한다. 즉, 답변을 단순히 받아들이는 것이 아니라, 그 내용을 검토하고, 부족한 점을 찾고, 이를 기반으로 또 새로운 질문을 던지는 과정이 반복되어야 한다. 결국, 더 나은 질문을 하기 위해서는 더 많은 지식과 깊이 있는 사고가 필요하다. 단순한 정보만 가진 사람은 1차 또는 2차 질문에서 멈추게 된다. 반면, 지식이 깊고 사고력이 뛰어난 사람은 답변을 검토하고, 부족한 점을 찾아내며, 끊임없이 질문을 발전시켜 나간다. 질문을 잘 할 수 있는 방법은 직간접 경험을 많이 해 보는 것이다. 직접 경험으로 가장 좋은 방법은 여행이다. 꼭 아이슬란드, 우유니 사막, 파리, 오사카, 발리, 하와이를 가야만 여행이 되는 것은 아니다. 좋아하는 사람(혼자 포함)과 함께 익숙하지 않은 곳으로 가면 모두 여행이다. 간접적인 경험으로는 독서가 가장 효과적이다. 만화책, 무협지 등 어떤 종류의 책이든 상관없다. 물론 독서는 개인의 타고난 성향에 따라 쉽게 친해지기 어려운 사람이 있다. 이런 사람들은 반드시 한권의 책을 처음부터 끝까지 다 읽으려 하지 말고, 흥미로운 부분만 골라 읽어도 좋다. 인공지능 시대에서 꼭 필요한 역량은 문제 해결 능력이 아니라 문제 정의 능력이고, 이런 능력을 키울 수 있는 가장 좋은 방법은 여행과 독서다.   I have done a lot of research in industry-academia collaborations. One of the first things we do at the beginning of an industry-academia collaboration is to write a research proposal. The proposal includes the overall plan of the research, including the purpose of the research, the content of the proposal, and the expected outcomes. However, once the actual research begins, things rarely go exactly as planned. Usually, the research is conducted based on the initial plan and the results are shared with the company. The company then sees the results and has new questions. “Well, this is what we found, but what if we approached it in a different way?” They ask, and the research expands in new directions. In fact, these questions may have been in the original proposal, or they may be new and unexpected. As the research progresses, results are confirmed, questions arise, and more questions are developed. This is an important lesson not only for researchers, but for all of us in the AI era. Nowadays, with language generation models like ChatGPT, one of the most important skills is the ability to ask good questions. For example, when ChatGPT gives us an initial answer, we need to be able to ask follow-up questions, such as “Is this answer accurate?” and “What are the areas to explore further in this answer?” In other words, we should not simply accept the answer, but examine it, find the gaps, and ask new questions based on it. In the end, asking better questions requires more knowledge and deeper thinking. A person with only simple information will stop at the first or second question. On the other hand, a deeply knowledgeable and thinking person will review answers, identify gaps, and constantly evolve their questions. The way to get better at asking questions is to have a lot of direct and indirect experience. The best way to get first-hand experience is to travel. You do not have to go to Iceland, the Uyuni Desert, Bali, Paris, Osaka, or Hawaii to travel. Anytime you go to an unfamiliar place with someone you love, it is traveling. For indirect experiences, reading is the most effective. It does not matter if it is a comic book, a martial arts book, or any other kind of book. Of course, some people are not naturally inclined to read. These people should not necessarily try to read a book from cover to cover but rather pick out the parts that interest them. In the age of AI, the most important skill is not problem solving, but problem definition, and the best way to develop this skill is to travel and read.   Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.04.21
Read More
06
2025.04

AI 에이전트

AI 에이전트는 인간이 설정한 특정 목적을 달성하기 위해 개별 인공지능 모델을 최적의 조합으로 운영하며, 다양한 작업을 효과적으로 대응할 수 있는 시스템이다. ChatGPT와 같은 언어모델이 특정 질문에 답변하는 데 그치는 반면, AI 에이전트는 이를 넘어 더욱 복잡하고 다양한 작업을 동시에 처리할 수 있다. 1980년대 중반 방영된 미국 드라마 “전격 Z작전 (원제: Knight Rider)”에 등장한 킷트(KITT) 자동차는 AI 에이전트의 대표적인 예시이다. 킷트는 자율주행, 방탄 기능, 터보 부스터, 음성 대화 기능을 갖춘 AI 에이전트 차량으로, 주인공 마이클 나이트의 파트너로 활약했다. 킷트의 음성 인식 및 상황 분석 능력은 마이클이 범죄를 해결하는 데 큰 도움을 주었다. 자동차 앞 부분의 좌우로 움직이며 빛나는 빨간색의 스캐너 램프와 효과음은 키트의 상징이다. 40여년 전 드라마임에도 불구하고, 킷트는 현재 AI 에이전트 개념을 잘 묘사한 예 중 하나이다. 보다 최근의 예로는 아이언맨에 등장하는 자비스(JARVIS)를 들 수 있다. 자비스는 주인공 토니 스타크의 파트너 역할을 하며, 다양한 업무를 수행하는 AI 에이전트이다. 특히 자비스는 아이언맨 슈트의 각종 시스템을 실시간으로 모니터링하고 제어하며, 전투 상황에서 최적의 전략을 제시하는 기능은 AI 에이전트의 가능성을 잘 보여 준다. 비록 킷트와 자비스는 드라마와 영화 속 상상이지만, 우리가 궁극적으로 달성하고자 하는 AI 에이전트의 미래를 보여 주는 사례이다. 완전한 AI 에이전트는 아니지만, 아이폰의 Siri, 갤럭시폰의 Bixby 역시 가상 비서(virtual assistant)로서, 음성 명령을 기반으로 질문에 답을 해 주는 AI 에이전트 기술의 초기 단계를 보여 준다. ChatGPT의 대화기능 역시 텍스트 기반 인터페이스를 통해 사용자와 상호작용하며, 다양한 주제에 대해 유용하고 창의적인 답변을 제공하는 AI 에이전트의 초기 단계 기술이다. 다만 항상 최신 정보를 제공하지 못하거나, 잘못된 정보나 추측성 답변을 제공할 수 있으며, 복잡한 질문에 대해 제대로 된 답변을 하지 못하는 한계점도 존재한다.   An AI agent is a system that operates an optimal combination of individual artificial intelligence models to achieve a specific goal set by a human, and can effectively respond to a variety of tasks. While language models like ChatGPT can only answer specific questions, AI agents can go beyond this and handle more complex and diverse tasks simultaneously.The KITT car from the mid-1980s American TV series ‘Operation Z’ (originally titled Knight Rider) is a classic example of an AI agent. KITT was a self-driving, bulletproof, turbo-boosted, voice-activated AI agent vehicle that served as a partner to protagonist Michael Knight. KITT's ability to recognize speech and analyze situations helped Michael solve crimes. KITT's iconic red scanner lamps and sound effects move from side to side on the front of the car. Despite being set over 40 years ago, KITT is one of the best depictions of the current AI agent concept. A more recent example is JARVIS from Iron Man. Jarvis is an AI agent that serves as a partner to the protagonist, Tony Stark, and performs a variety of tasks. His ability to monitor and control the various systems in Iron Man's suit in real-time, as well as suggesting the best strategy in combat situations, demonstrates the potential of AI agents. Although KITT and Jarvis are fictionalized in TV and film, they represent the future of AI agents that we ultimately hope to achieve. While not fully AI agents, Siri on the iPhone and Bixby on Galaxy phones are virtual assistants that answer questions based on voice commands and represent the early stages of AI agent technology. ChatGPT's dialogue feature is also an early example of an AI agent that interacts with users through a text-based interface and provides useful and creative answers to a variety of topics. However, there are limitations, such as not always having the most up-to-date information, providing incorrect or speculative answers, and not being able to answer complex questions.Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.04.06
Read More
30
2025.03

매일 쏟아지는 AI 기술, 다 따라가야 할까요?

지금 우리는 빠르게 변화하는 인공지능 시대에 살고 있습니다. 매일같이 새로운 기술이 발표되고, 전 세계에서 수많은 논문이 쏟아지듯 나오고 있지요. 그런 흐름을 보고 있노라면, ‘이 모든 것을 다 따라가지 않으면 뒤처지는 건 아닐까?’ ‘나는 너무 느린 건 아닐까?’ 하는 불안감과 조급함이 자연스럽게 따라올 수 있습니다. 수많은 새로운 기술들과 논문들을 모두 읽고, 이해하고, 따라가는 것은 현실적으로 불가능합니다. 지금 이 순간에도 수백 편의 논문이 발표되고 있을 테니까요. 정말 중요한 것은, 필요한 순간이 왔을 때 내가 이 기술을 공부해서 익힐 수 있다는 자신감을 갖는 것입니다. 기술의 흐름은 항상 앞서가지만, 그 흐름을 따라잡는 힘은 바로 기초 체력에서 나옵니다. 여기서 말씀드리는 ‘기초 체력’은 신체적인 근력이 아니라, 인공지능이라는 복잡하고 빠르게 진화하는 학문을 이해하고 받아들일 수 있는 학문적 기반과 사고력을 뜻합니다. 이러한 기초 체력을 키우는 데에는 시간과 인내가 필요합니다. 처음에는 다양한 분야를 넓게 공부하면서 전반적인 흐름을 익히는 것이 좋습니다. 그리고 나중에는 특정한 주제나 기술을 깊이 있게 파고드는 경험이 꼭 필요합니다. 예를 들어, 어떤 알고리즘을 단순히 '사용'하는 것에서 그치지 않고, 그 원리와 한계, 수학적 기반, 그리고 왜 그렇게 설계되었는지를 고민해보는 것이지요. 이런 식으로 깊이 있는 하나의 경험이 쌓이기 시작하면, 처음에는 두렵게 느껴졌던 새로운 기술이나 논문도 점차 익숙하게 느껴지게 됩니다. 하나의 주제에 대해 충분히 깊이 이해하게 되면, 두 번째, 세 번째 주제를 배울 때는 훨씬 더 빠르고 수월하게 접근할 수 있습니다. 마치 운동도 처음에는 힘들지만, 어느 순간 근육이 붙고 나면 점점 즐거워지는 것처럼 말입니다. 작더라도 성공 경험을 만드는 것이 매우 중요힙니다. 스스로 끝까지 이해해본 경험, 처음부터 끝까지 구현하고 실험해본 기억— 이런 경험들이 쌓이면, 스스로가 '나는 이 분야에서 살아남을 수 있다'는 믿음을 가질 수 있게 됩니다. 물론 그 과정에서 중요한 것은, 기본이 되는 수학적 이론들과 핵심적인 방법론들을 차근차근 공부하는 것입니다. 딥러닝 프레임워크를 사용하는 데 그치지 않고, 그 아래 깔린 개념들—선형대수, 확률과 통계, 최적화 이론, 그래프 구조 등—을 자신의 언어로 이해해보는 노력이 필요합니다. 그렇게 기초가 탄탄해지면, 앞으로 새로운 기술이 아무리 빠르게 쏟아지더라도 압도되지 않습니다. ‘지금은 잘 모르지만, 필요할 때 얼마든지 스스로 학습하여 따라갈 수 있다’는 내면의 안정감과 여유가 생기게 됩니다. 그때부터는 불안감이 아니라, ‘기술을 탐구하는 즐거움’이 여러분을 이끌어 줄 것입니다. 완벽할 필요는 없습니다. 때론 흔들리더라도 계속 앞으로 나아갈 수 있는 자기만의 리듬과 힘을 갖추는 것이 중요합니다. 그것이 바로, 지금 우리가 준비해야 할 진짜 '공부'입니다.   We’re living in an era of rapidly evolving artificial intelligence. Every day, new technologies are introduced, and research papers are published at an overwhelming pace. It’s easy to feel anxious: “Do I need to keep up with all of this to avoid falling behind?” “Am I moving too slowly compared to others?” It’s simply not realistic to read, understand, and follow every new paper or technology that comes out. Even now, as you’re reading this, hundreds of papers are probably being published. What matters most is having the confidence that when the time comes, you’ll be able to learn and master what you need. And that kind of confidence comes from foundational strength. By "foundational strength," I don’t mean physical stamina. I’m talking about the intellectual foundation—the academic and conceptual readiness to absorb and understand AI, no matter how fast it evolves. To build that foundation, you’ll first need to explore a broad range of topics to understand the landscape. Then, gradually, you should dive deeply into specific areas, going beyond surface-level understanding. For example, don’t just learn how to use an algorithm. Try to understand why it works the way it does—its underlying principles, mathematical basis, limitations, and design choices. Yes, it’s difficult in the beginning. But once you’ve gone deep into just one area—deep enough to confidently answer any question about it— approaching new topics becomes far less intimidating. It’s like working out: at first, your whole body aches, but as your muscles grow, you start enjoying the process. That’s why having one or two success experiences is so important. They might be small—perhaps you fully understood a model from the ground up, or completed an implementation and experiment from start to finish. But those experiences show you: I can do this. To get there, you’ll need to steadily build your knowledge of the core theoretical concepts and key methodologies in AI. Don’t just use deep learning frameworks—learn the math beneath them: linear algebra, probability and statistics, optimization, computation graphs, and so on. Once your foundation is solid, you won’t be overwhelmed by the constant stream of new technologies. You’ll have the inner calm and confidence to say, “I may not know this now, but I can learn it when I need to.” That’s when anxiety fades, and the joy of exploration takes over. You don’t have to be perfect. You just need the strength to keep moving forward— even when things feel shaky. And that, in the end, is the real learning we need to prepare for in this age of AI.   Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.30
Read More
25
2025.03

학습(training) vs. 추론(inference)

인공지능 모델 개발 과정은 크게 학습과 추론의 두 단계로 구분된다. 학습은 인공지능 모델을 생성하는 과정으로, 생산자 관점에서 접근해야 하는 반면, 추론은 생성된 모델을 활용하는 행위로, 소비자 관점에서 접근할 수 있다. 요즘 젊은 세대들이 테니스를 많이 친다고 하는데, 테니스 코트에 비유하자면, 학습은 초기비용이 많이 드는 하드코트에 해당하며, 추론은 유지비용이 많이 드는 클래이 코트에 해당한다. 학습 과정에서는 고성능 컴퓨팅 자원과 방대한 데이터가 필요하며, 이로 인해 초기 투자 비용과 전력 소비가 매우 크다. 예를 들어, 대규모 신경망 모델을 학습시키기 위해서는 GPU(graphics processing unit)나 TPU(tensor processing unit)와 같은 고성능 컴퓨팅 자원이 필수적이다. 이러한 자원은 복잡한 연산을 병렬로 처리하여 모델의 정확도를 높이는 데 기여하지만, 동시에 높은 비용과 전력 소비를 요구한다. 따라서 학습 단계에서는 고성능 하드웨어 자원을 활용하여 효율적으로 모델을 학습시키는 것이 중요하다. 학습이 완료된 모델은 다양한 사용자에 의해 활용되며, 이때 중요한 요소는 바로 추론의 효율성이다. 추론은 모델이 실제 문제를 해결하기 위해 작동하는 과정으로, 사용자가 많을수록 추론 속도와 전력 소모가 성능에 큰 영향을 미친다. 예를 들어, ChatGPT와 같은 대화형 인공지능 시스템은 동시 사용자 수가 많아질 경우, 추론 효율성이 시스템 전체 성능을 결정짓는 핵심 요소로 작용한다. 따라서 추론 과정에서는 전력 대비 성능이 중요한 설계 요소로 부각된다. 인간의 능력 역시 학습과 추론으로 나누어 볼 수 있다. 학습 능력은 시간을 가지고 꾸준하게 공부하여 지식을 쌓은 과정이다. 추론은 쌓은 지식을 적절히 활용하는 과정이다. 우리나라 교육 시스템에서는 학습 보다는 추론 능력이 뛰어난 학생이 절대적으로 유리하다. 정해진 시간 내에 (그것도 매우 짧은 시간내) 정답을 맞추어야만 좋은 내신과 수능점수를 받을 수 있는 우리나라 교육 시스템에서는 본인이 학습한 지식을 얼마나 빨리 내뱉을 수 있는지가 매우 중요하다. 물론 학습과 추론은 꽤 높은 상관관계가 있지만 소수이긴 하지만 그 관계가 적은 학생들에게는 절대적으로 불리하거나 유리하다. 성실하게 열심히 학습을 했지만 짦은시간 내 그것을 쏟아내는 추론능력이 부족한 학생들에게는 절대적으로 불리한 시스템이다. 내가 생각하는 올바른 교육평가는 학습시간을 성실히 소화한 학생들이 우수한 결과를 받게 하는 것이다. 이를 실현하기 위해서는 단시간에 평가하는 in-class 시험을 줄이고, 충분한 시간을 가지고 본인의 학습 역량을 보일 수 있는 과제, 프로젝트, 동아리 활동 등으로 평가를 하면 좋을 것 같다.  The process of developing an AI model is divided into two main phases: learning and inference. Learning is the process of creating an AI model and should be approached from a producer's perspective, while inference is the act of using the created model, which can be approached from a consumer's perspective. If we use the analogy of a tennis court, where young people play a lot of tennis, learning is the hard court with high initial costs, and inference is the clay court with high maintenance costs.The learning process requires high-performance computing resources and large amounts of data, which results in very high initial investment and power consumption. For example, training large-scale neural network models requires high-performance computing resources such as graphics processing units (GPUs) and tensor processing units (TPUs). These resources contribute to increasing the accuracy of the model by processing complex computations in parallel, but they also come at a high cost and power consumption. Therefore, it is important to leverage high-performance hardware resources during the training phase to train the model efficiently.Once trained, the model is used by various users, and the efficiency of the inference is an important factor. Inference is the process by which the model works to solve real-world problems, and the more users there are, the more the inference speed and power consumption will affect performance. For example, in a conversational AI system like ChatGPT, inference efficiency becomes a key factor in determining the overall performance of the system when the number of concurrent users increases. This makes power-to-performance a critical design factor in the inference process.Human capabilities can also be divided into learning and inference. Learning is the process of accumulating knowledge through consistent study over time. Inference is the process of using the accumulated knowledge appropriately. In our education system, students who are better at inference. than learning have an absolute advantage. In our education system, where the only way to get good grades and SAT scores is to get the right answers within a set time frame (and even then, a very short time frame), it's very important to be able to recall what you've learned quickly. Of course, learning and inference. are quite highly correlated, but for a small minority of students, the relationship is absolutely disadvantageous or advantageous. It is an absolute disadvantage for students who have studied hard and diligently, but lack the inference. skills to produce it in a short period of time. In my opinion, the right way to evaluate education is to reward students who put in the time and effort to learn. To achieve this, we should reduce the number of in-class exams that are assessed in a short period of time and use assignments, projects, club activities, etc. that allow students to demonstrate their learning capabilities over a longer period of time.  Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.25
Read More
17
2025.03

할루시네이션 (Hallucination)

거대 언어 생성 모델인 챗지피티(ChatGPT)와 클로드(Claude) 등의 대표적인 단점으로 흔히 ‘할루시네이션(hallucination)’이 꼽힌다. 이는 생성 모델이 질문에 대해 잘못된 답변을 마치 사실인 것처럼 그럴듯하게 만들어내는 현상을 의미한다. 물론 이런 오류가 문제를 일으킬 수도 있지만, 한정된 학습 정보로 만들어진 생성 모델이 할루시네이션을 보인다는 사실 자체는 오히려 자연스러운 현상이다. 예를 들어, 인간도 비슷한 상황을 겪는다. 가령 옆에 있는 교수에게 질문한다고 해보자. 교수는 잘 아는 분야에 대해서는 정확한 답변을 하겠지만, 익숙하지 않은 주제라면 그냥 "모른다"고 하는 사람도 있을 것이다. 하지만 잘난 체하는 성향이 있는 교수라면, 아는 정보를 조합해 최대한 그럴듯한 답을 내놓을 수도 있다. 그러나 그 분야의 전문가가 듣기에는 그 답변이 터무니없거나 사실과 다를 수 있다. 우리는 종종 "어떻게 저렇게 그럴듯하게 틀린 말을 하지?"라며 놀라곤 한다. 유튜브나 방송에서도 전문가처럼 보이는 사람이 자신감 있게 설명하는 모습을 보고, 실제 전문가들이 "저 사람, 진짜 잘도 속이네"라며 비웃는 경우도 많다. 생성 모델도 마찬가지다. 제한된 정보로 학습되었기 때문에 이런 현상이 나타나는 것이다. 하지만 이는 오히려 인간처럼 사고하고 답변하도록 훈련 받았다는 증거이지, 일부러 아는 내용을 왜곡해 거짓 답변을 하려는 의도가 있는 것은 아니다. 결국, 인간이 아는 범위 내에서 최대한 논리를 맞춰 말하는 것과 비슷한 원리로 작동하는 것이다. 생성 모델은 학습한 지식을 바탕으로 답변을 생성하기 때문에, 충분한 데이터가 없거나 익숙하지 않은 분야에서는 정확한 답을 내놓기 어렵다. 따라서 생성 모델이 할루시네이션을 일으킬 수 있다는 점을 인식하고, 애매한 정보는 신뢰할 수 있는 서적이나 검색을 통해 검증하는 것이 중요하다. 앞으로 인공지능 시대에는 이러한 오류를 판단하고 걸러낼 수 있는 능력이 더욱 중요해질 것이다. 결국, 어중간한 사람들은 퇴출되고, 각 분야의 최고의 전문가들이 인공지능과 협력하며 일하는 시대가 오지 않을까 생각해 본다. A common drawback of large language generation models, such as ChatGPT and Claude, is “hallucination.” This is when a generative model produces a false answer to a question that is plausible as if it were true. While this error can be problematic, it is actually quite natural for generative models with limited training information to exhibit hallucination. For example, humans experience a similar situation. For example, imagine asking a question to the professor next to you. The professor might give you a precise answer in a subject they know well, but if the subject is unfamiliar, they might just say “I don't know.” However, if the professor has a tendency to be arrogant, he or she might try to cobble together the information he or she knows and come up with the most plausible answer possible. However, to an expert in the field, the answer might sound absurd or untrue. We often wonder, “How can they be so plausibly wrong?” We often watch YouTube videos or broadcasts where someone who seems to be an expert explains things confidently, while real experts laugh and say, “Wow, that guy is really good at fooling people.” The same is true for generative models. The same is true for generative models. They are trained with limited information, which is why they behave the way they do. But this is evidence that they've been trained to think and answer like humans, not that they're intentionally distorting what they know to give false answers. In other words, it works in a similar way to how humans speak, making as much sense as possible within the confines of their knowledge. Because generative models generate answers based on the knowledge they have learned, they are less likely to be accurate in areas where they don't have enough data or are unfamiliar. Therefore, it is important to recognize that generative models can make mistakes, and to verify any ambiguous information with reliable books or searches. In the future of AI, the ability to recognize and filter out these errors will become even more important. Eventually, the mediocre will be weeded out and the best experts in their fields will be working in collaboration with AI.   Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.17
Read More
14
2025.03

Convolution Filters

Convolution Filters  널리 사용되는 인공지능 방법론 중에는 합성곱 신경망(convolutional neural networks)이라는 모델이 있다. 분석하고자 하는 데이터는 일반적으로 작은 객체들의 집합으로 구성되어 있다. 예를 들어, 정원에 앉아 있는 강아지 이미지에는 강아지뿐 아니라 배경이 되는 하늘, 나무, 꽃, 잔디 등이 혼합되어 있다. 강아지 자체를 보더라도 눈, 코, 귀 입, 털 등 작은 객체들로 나눌 수 있다. 이 객체들을 구성하는 원 데이터 (이미지 픽셀)는 개별적으로 분석하기 보다는 하나의 새로운 객체로 취급하는 것이 더 효과적이다. 즉, 이미지의 각픽셀을 따로 분석하기보다는, 특정 객체를 구성하는 픽셀들을 하나의 단위로 묶어 분석하는 방식이 보다 효율적이라는 것이다. 예를 들어, 강아지 코를 이루고 있는 50개의 픽셀을 하나의 단위로 묶어 이를 강아지 이미지 예측에 활용하자는 아이디어가 합성곱 신경망의 핵심이다. 50개의 개별 픽셀을 하나로 묶기 위해 사용하는 기술이 합성곱 연산 (convolution)이다. 이는 원 이미지 (혹은 feature map)에 특정 사이즈의 필터를 적용하여 계산하는 과정이다. 구체적으로는 필터에 있는 값(가중치)과 그에 해당하는 feature map의 값을 개별적으로 곱한 후, 모두 더하는 방식으로 이루어진다. 일상에서 필터는 찌꺼기를 걸러내는데 사용된다. 찌꺼기를 거른다는 것은 핵심만을 추리기 위함이다. 핵심을 파악한다는 것은, 너저분하게 널려 있는 것 중에 버릴 것은 버리고 필요한 것은 정리하여 중요한 것에 집중할 수 있도록 돕는 일이다. 중요한 일에 집중하며 사는 것은 유한한 시간을 살아가는 우리 모두에게 꼭 필요한 일이다. 중요한 것은 그것이 결핍되었을 때 인지할 수 있다. 내 어릴 적 아버지가 장기 출장을 가신적이 있었다. 평소에는 아버지의 존재를 크게 느끼지 못했지만, 안 계시니 불편한 점이 한둘이 아니었다. 내 책상도 아버지가 며칠만 안 계시니 금방 지저분해졌다. 알고보니, 내 책상 위의 지우개 가루, 마시다만 물컵, 과자봉지, 휴지 조각을 아무도 모르게 치워주셨던 분이 아버지였다. 우리 인생에는 잡스러운 것들을 날려 보내고 정말 중요한 것만 남길 수 있는 “인생필터”가 필요하다. 다만 필터는 정기적으로 청소를 하지 않으면 막히기 때문에, 주기적인 청소가 반드시 필요하다.     One of the most popular AI methodologies is convolutional neural networks. The data you want to analyze usually consists of a collection of small objects of interest. For example, an image of a puppy sitting in a garden contains not only the puppy, but also the sky, trees, flowers, and grass in the background. Even the dog itself can be broken down into smaller objects: eyes, nose, ears, mouth, fur, etc. The raw data (image pixels) that make up these objects are better treated as one new object rather than analyzed individually. In other words, rather than analyzing each pixel in the image separately, it is more efficient to analyze the pixels that make up a particular object as a unit. For example, the idea of lumping the 50 pixels that make up a dog's nose into a single unit and using it to predict a dog image is at the heart of convolutional neural networks. The technique used to group the 50 individual pixels together is called convolution. It is computed by applying a filter of a certain size to the original image (or feature map). Specifically, it works by multiplying the values (weights) in the filter and the corresponding values in the feature map individually, and then adding them all together. In everyday life, filters are used to filter out the dregs. To filter out the dross is to get to the point. To get to the point is to discard the clutter and organize what you need so that you can focus on what matters. Focusing on what's important is something we all need in our finite time. The key is to be able to recognize when it's lacking. When I was growing up, my father traveled for business trips. I didn't usually feel his presence much, but there were a lot of things I didn't like about his absence. My desk got messy after he was gone for just a few days. As it turns out, it was my dad who cleaned up the eraser powder, drinking cups, snack bags, and tissues on my desk without anyone noticing. We all need a “life filter” in our lives that allows us to let go of the clutter and keep what really matters. However, filters get clogged if they're not cleaned regularly, so periodic cleaning is essential.    Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.14
Read More
10
2025.03

샤플리 값 (Shapley Value)

샤플리 값 (Shapley Value)  뉴럴네트워크를 기반으로 한 딥러닝 모델은 정확한 예측 결과를 제공하지만, 이러한 결과가 어떤 원인에 의해 도출되었는지 직관적인 설명은 어렵다. 이때 사용되는 해결책 중 하나가 Shapley value를 이용한 방법론이다. 이 방법론의 핵심은 예측에 기여하는 여러 인자 중 하나씩 제외한 뒤, 나머지 인자들만 사용하여 얻은 예측결과를 전체 인자를 사용한 결과와의 차이를 통해 비교하는 것이다. 이 차이가 크다는 것은 해당 변수를 사용하지 않으면 성능 하락폭이 크다는 것을 의미하기 때문에, 해당변수가 전체 성능에 미치는 영향이 크다는 것을 의미한다. 즉, 각 인자의 중요도를 그 인자를 제외했을 때의 결과를 통해 판단하는 것이다. 우리가 가지고 있는 것에 대한 소중함 정도는 그것의 결핍을 경험했을 때 올바르게 측정될 수 있다. 현재 우리들이 아무렇지도 않게 누리고 있는 것들 중에서 그것이 사라진다면 미치도록 그리워질 것이 무엇일지 주기적으로 생각해 보는 것이 필요하다. 이미 나에게는 없지만 아버지, 어머니는 내가 젊을 때 내 곁을 언제나 지켜줄 분들이라고 생각했다. 3년전, 2년전 연이어 세상을 떠나신 뒤, 그리움의 정도는 이루 말할 수 없이 크다. 내게 너무 소중한 분들이 아니었나 싶다. 현재 가지고 있지만 당연하다고 생각하는 나의 가족, 나의 직업, 나의 사무실, 나의 건강, 나의 친구들도 언젠가는 하나씩 내 곁을 떠날 것이다. 생각만 해도 마음이 아프고 힘들다. 다른 것 보다 이런 것을 소중히 여기면서 살아가야겠다.  Deep learning models based on neural networks provide accurate predictions, but it is difficult to intuitively explain what causes these results. One solution is the Shapley value method. The idea is to remove one of the many factors that contribute to the prediction, and then compare the predictions obtained using only the remaining factors to the results obtained using all the factors. A large difference indicates that the variable has a large impact on the overall performance, because the performance drop without that variable is large. In summary, the importance of each factor is determined by examining the impact of its exclusion. The degree to which we value what we have can only be properly measured when we experience its absence. It’s worth reflecting from time to time on the things we take for granted, asking ourselves: what would we miss deeply if it were suddenly gone? When I was younger, I believed my parents would always be by my side. However, after losing my father three years ago and my mother two years ago, the depth of my longing for them is beyond words. Their absence has made me realize how truly precious they were. I have my family, my job, my office, my health, and my friends, all of which I often take for granted. Yet, one day, these too will inevitably leave me, one by one. The thought is painful and difficult to bear, but it’s a reminder to cherish them while they are still with me. I must strive to live a life that values these treasures above all else.  Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.10
Read More
06
2025.03

시계열 데이터 (Time Series Data)

데이터 분석에서 시계열 데이터를 분석하기 위해서는 특별한 방법론이 필요하다. 시계열 데이터는 말 그대로 시간의 흐름에 따라 수집된 데이터를 의미한다. 단순히 시간에 따라 수집된 데이터라고 생각하면, 우리가 분석하는 모든 데이터가 시계열 데이터처럼 보일 수 있다. 왜냐하면 우리는 빅뱅 이후 시간이 존재하는 공간에서 살아가고 있기 때문에 모든 데이터가 시간의 영향을 받을 수 밖에 없기 때문이다. 그러나 시계열 데이터인지 판단하는 핵심 기준은 데이터의 순서가 분석에 영향을 미치는지 여부이다. 시간에 따라 수집된 데이터라도, 그 순서가 분석 결과에 영향을 미치지 않으면 굳이 시계열 분석 방법론을 적용할 필요가 없다. 시계열 데이터 분석 방법론의 특징은 과거 데이터의 정보를 누적하여 현재를 판단하는 것이다. 이는 현재 정보가 과거 정보의 누적된 결과라는 사실에 기반한다. 예를 들어, 인공지능에서 널리 사용되는 시계열 방법론인 순환신경망(recurrent neural network; RNN)는 과거 데이터를 누적한 정보를 특징벡터로 사용한다. 기본 RNN에서 발전된 LSTM(long short-term memory)이나 GRU(gated recurrent unit) 역시 과거 데이터를 누적하여 얻어진 정보를 사용한다. 이처럼 순서를 기준으로 보면 텍스트 데이터나 유전체 데이터 (뉴클리오타이드, 아미노산)도 모두 시계열 데이터로 간주할 수 있다. 시계열 여부를 판단하는 가장 간단한 방법은, 분석하려는 데이터의 순서를 뒤바꿨을 때 분석 결과에 영향을 미치는지 확인하는 것이다. 우리 삶에서도 올바른 의사결정을 위해서는 과거의 경험이 매우 중요하다. 지금의 나를 돌아보면, 내가 어떤 선택을 했고, 어떤 길을 걸어왔는지 알 수 있다. 내가 한 행동들, 내가 내린 결정들이 지금의 나를 만든 것이다. 그렇다면, 미래의 나는 어떻게 될까? 그것은 지금 이 순간, 내가 어떤 결정을 내리고, 어떤 행동을 하느냐에 달려 있다. 삶은 반복되는 과거의 연속이자, 새로운 미래를 만들어가는 과정이다. 결국, 과거와 현재, 그리고 미래는 서로 깊이 연결되어 있다는 점을 잊지 말아야겠다.  Analyzing time series data in data analytics requires a special methodology. Time series data are collected over time. If we think of it simply as data collected over time, all of the data we analyze can look like time series data. This is because we live in a space where time has existed since the Big Bang, so all data is subject to the effects of time. However, a key criterion for determining whether data is time series is whether the order of the data affects the analysis. Even if the data is obtained over time, there is no need to apply time series analysis methodology if the order of the data does not affect the results of the analysis. Time series data analysis methodology is characterized by accumulating information from past data to determine the present. This is because current information is based on the cumulative result of past information. For example, the recurrent neural network (RNN), a representative time series methodology in artificial intelligence, uses the accumulated information of past data as a feature vector. LSTM (long short-term memory) and GRU (gated recurrent unit), which evolved from the basic RNN, also use information obtained by accumulating past data. In this order, text data or genomic data (nucleotides, amino acids) can also be considered time series data. The simplest way to determine if something is a time series is to see if reversing the order of the data you want to analyze affects the results of your analysis. In our lives, our past experiences are very important for making the right decisions. When I look back at who I am today, I can see the choices I've made and the path I've traveled. The actions I took, the decisions I made, made me who I am today. So, what will your future be like? It depends on the decisions you make and the actions you take in the here and now. Life is a continuation of the past and a process of creating a new future. In the end, the past, present, and future are deeply interconnected. Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.06
Read More