Professor's Notes

Professor's Notes

Number of entries: 24 (필터 적용됨)
07
2025.09

LLM vs. AI Agent

LLM vs. AI Agent LLM은 방대한 텍스트 데이터셋을 기반으로 사전 학습(pretraining)된 초대규모 신경망으로, 언어적 패턴을 내재화하여 문맥에 맞는 응답을 생성한다. 사용자가 질의를 입력하면 LLM은 학습된 확률 분포에 따라 가장 개연성 높은 토큰(token)을 예측하며 문장을 전개한다. 이러한 특성 덕분에 LLM은 요약, 번역, 코드 생성, 창의적 글쓰기 등 다양한 자연어 처리(NLP) 작업을 수행한다. 그러나 LLM 자체는 목표를 설정하거나 장기적 의사결정을 수행하고, 외부 환경과 동적으로 상호작용하는 능력이 부족하다. 즉, LLM은 본질적으로 입력에 반응하는 데 특화된 언어 추론 엔진(inference engine)에 해당한다. 이에 비해 AI 에이전트(AI agent)는 목표 지향적 자율성(goal-directed autonomy)을 갖춘 지능형 시스템으로, LLM을 활용하여 외부 도구, API, 데이터베이스, 그리고 실제 환경과 상호작용한다. 에이전트는 다음과 같은 절차적 루프를 통해 복잡한 문제를 해결한다. 의도 해석 (Understanding): LLM을 활용하여 사용자 요청을 분석한다. 정보 수집 (Retrieval): 검색 API나 데이터 소스를 호출해 필요한 정보를 확보한다. 계획 수립(Planning): 복잡한 작업을 세분화하여 실행 가능한 단계로 설계한다. 실행 및 반복(Execution & Iteration): 관찰(Observation) → 계획(Planning) → 행동(Action) → 피드백(Iteration)의 순환 과정을 통해 문제를 점진적으로 해결한다. 이 과정에서 LLM은 언어 기반 추론과 계획 수립을 지원하는 핵심 두뇌 역할을 담당하지만, 자율적 목표 달성과 복합적 문제 해결 능력은 에이전트 구조 안에서 비로소 구현된다. 결론적으로, LLM은 강력한 언어 지능을 제공하는 핵심 도구이고, AI 에이전트는 이를 활용해 현실 세계의 다양한 문제를 해결하는 실행 시스템이다. LLM 단독으로는 고도화된 대화형 챗봇 수준에 머물지만, 에이전트와 통합될 때 외부 도구 활용, 정보 탐색, 다단계 추론을 통해 능동적 실행 주체로 발전한다. 따라서 LLM과 AI 에이전트는 각각 엔진과 조종사처럼 상호보완적으로 작동하며, 서로 결합될 때 비로소 실질적인 지능형 시스템을 구현한다.   LLM is a large-scale neural network pretrained on vast text datasets, internalizing linguistic patterns to generate contextually appropriate responses. When a user inputs a query, the LLM predicts the most probable token based on probability distributions and develops the sentence accordingly. Because of these characteristics, the LLM performs various natural language processing (NLP) tasks such as summarization, translation, code generation, and creative writing. However, the LLM itself lacks the ability to set goals, make long-term decisions, and dynamically interact with external environments. In other words, the LLM is essentially an inference engine specialized in responding to inputs.In contrast, an AI agent is an intelligent system with goal-directed autonomy, which uses the LLM to interact with external tools, APIs, databases, and real-world environments. The agent solves complex problems through the following procedural loop.• Understanding: The LLM is used to analyze the user’s request. • Retrieval: APIs or data sources are called to obtain the necessary information. • Planning: Complex tasks are broken down and designed into executable steps. • Execution & Iteration: Problems are progressively solved through a cycle of Observation → Planning → Action → Iteration. In this process, the LLM serves as the core brain that supports language-based reasoning and planning, but autonomous goal achievement and complex problem-solving capabilities are realized only within the agent structure. In conclusion, the LLM is a core tool that provides powerful linguistic intelligence, while the AI agent is an execution system that utilizes it to solve diverse real-world problems. The LLM remains at the level of an advanced conversational chatbot, but when integrated with an agent, it evolves into an active executor capable of tool usage, information retrieval, and multi-step reasoning. Therefore, the LLM and AI agent function complementarily, like an engine and a pilot, and only when combined can they realize a truly intelligent system. Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.09.07
Read More
11
2025.08

가상이 만드는 미래, 인공지능이 그리는 예측의 힘

가상이 만드는 미래, 인공지능이 그리는 예측의 힘우리는 종종 "미래를 알 수 있다면 얼마나 좋을까?"라는 상상을 한다. 그러나 이제 이 상상은 단순한 꿈이 아니라, 기술로 구현할 수 있는 목표가 되고 있다. 가상세계는 단순한 시뮬레이션이 아니다. 그것은 앞으로 벌어질 수 있는 일을 미리 체험하고, 필요하다면 그 일을 ‘일어나지 않게’ 만들 수 있는 안전장치다. 제조업을 예로 들어보자. 가상 시뮬레이션에서 특정 생산 방식이 높은 불량률을 예측한다면, 실제로 그 방식을 채택하지 않으면 된다. 이동통신 업계에서는 특정 마케팅 전략이 고객 이탈을 유발할 것으로 판정된다면, 그 전략을 과감히 접으면 된다. 심지어 전쟁과 같은 극단적인 상황에서도, 가상이 패배를 예측한다면 그 나라는 전투를 피함으로써 치명적인 손실을 막을 수 있다. 결국 관건은 ‘얼마나 정교한 가상세계’를 만들 수 있느냐에 있다. 하지만 우리 사피엔스의 브레인은 시간이라는 우주의 제약 속에 묶여 있다. 복잡하게 얽힌 변수를 모두 고려해 미래를 완벽하게 재현하는 것은 불가능하다. 바로 이 지점에서 인공지능이 등장한다. 인공지능의 고도화된 예측 알고리즘은 수많은 데이터와 변수를 종합해, 과거의 경험과 미래의 가능성을 하나의 가상세계로 재구성한다. 가상세계는 더 이상 공상과학 영화 속 장치가 아니다. 그것은 우리가 더 안전하게, 더 현명하게, 그리고 더 효율적으로 미래를 맞이할 수 있는 가장 강력한 도구가 되고 있다. 현실을 바꾸는 힘은 이제 ‘현실’이 아니라, ‘가상’에서 시작된다.The Future Built in the Virtual World: The Predictive Power of AIWe’ve all wondered, “Wouldn’t it be amazing to know the future?” That thought is no longer just a daydream—it’s becoming a tangible goal, thanks to technology. A virtual world isn’t merely a simulation. It’s a safety net, a place where we can experience what might happen and, if necessary, prevent it from ever happening in the real world.Take manufacturing as an example. If a virtual simulation predicts a high defect rate for a certain production method, simply don’t use that method in reality. In the telecom industry, if a marketing strategy is shown to drive customers away, drop it before it’s rolled out. Even in extreme cases like warfare, if the simulation predicts defeat, a nation can avoid devastating losses by steering clear of the battle altogether.The real question is: How precise can we make this virtual world? The human brain is bound by the constraints of time and the limits of cognition. It simply cannot account for every tangled variable and perfectly reconstruct the future on its own. That’s where artificial intelligence comes in. With advanced predictive algorithms, AI can weave together vast amounts of data and countless variables, merging past experiences with future possibilities into a single, coherent virtual world. The virtual world is no longer the stuff of science fiction. It’s becoming one of the most powerful tools we have to face the future—safer, smarter, and more efficiently. The power to change reality no longer begins in the real world. It begins in the virtual one.Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.08.11
Read More
27
2025.07

순수 학문과 낡은 교육의 경계: 시대에 맞는 고등교육 콘텐츠의 방향

순수 학문과 시대에 뒤떨어진 낡은 학문은 분명히 구별되어야 한다. 문학, 사학, 철학, 수학, 물리학, 화학, 생물학, 지구과학 등은 인류 지식의 기초를 이루는 순수 학문으로서, 그 자체의 가치와 존재 이유를 지닌다. 이러한 순수 학문은 인간의 사고력과 탐구심을 키우고, 응용과 실천의 기반을 제공하는 데 중요한 역할을 한다. 그러나 아무리 중요한 순수 학문이라 하더라도, 그 안에서 다루는 교육 콘텐츠가 시대의 흐름과 단절된 채 과거의 이론과 사례만을 반복한다면, 그것은 더 이상 ‘살아 있는 학문’이라 보기 어렵다. 시대의 변화를 반영하지 못하고 현대 사회와의 연결 지점을 제공하지 못하는 콘텐츠는, 학생들의 학습과 성장에 실질적인 도움이 되지 않는다. 이는 컴퓨터 과학, 전자공학, 인공지능, 바이오 기술과 같은 최신 공학 분야에서도 마찬가지다. 겉으로는 첨단 기술을 가르친다고 하면서도, 정작 10년, 20년 전의 기술 사례나 낡은 교육자료에 의존한다면, 그것은 더 이상 ‘최신’이라 부를 수 없다. 단지 과거에 안주하는 기술 교육일 뿐이며, 급변하는 산업 현장에서 요구하는 역량과는 괴리될 수밖에 없다. 현재 우리 대학을 비롯한 많은 고등교육기관에서 제공되는 교육과정 중 상당수는, 학생들의 미래를 위한 준비보다는, 현재 강의를 맡은 교수들이 익숙한 내용을 반복해 전달할 수밖에 없는 구조 속에 놓여 있다. 이는 교육의 본질인 ‘학생 중심의 교육’에서 벗어난 것으로, 교육의 목적과 방향을 다시 점검할 필요가 있다. 앞으로는 순수 학문이든 최신 응용 학문이든 관계없이, 학생들의 실질적인 성장을 지원하지 못하는 낡은 교육 콘텐츠를 ‘순수학문’이라는 명분으로 지속적으로 제공하는 관행은 지양되어야 한다. 교육은 과거의 지식을 보존하는 데에만 머물러서는 안 되며, 끊임없이 변화하는 사회와 기술 환경 속에서 학생들이 미래를 준비할 수 있도록 안내하는 역할을 해야 한다. 살아 있는 교육 콘텐츠, 시대의 흐름을 반영한 교육 콘텐츠만이 진정한 교육이며, 그것이야말로 우리가 지향해야 할 대학 교육의 방향이다. 물론 모든 교수가 같은 역할을 수행할 필요는 없다. 연구와 교육의 균형은 학자의 경력과 전문성에 따라 달라질 수 있다. 다만, 30대와 40대에는 연구에 보다 집중하여 학문의 깊이를 확장하고, 50대 이후에는 새로운 연구에만 매달리기보다는, 축적된 지식과 경험을 바탕으로 학생들이 학문적 기초 체력을 기를 수 있도록 시대에 맞는 교육 콘텐츠를 개발하고 전달하는 데 더 많은 관심을 기울이는 것이 바람직하다. 그렇게 할 때 대학은 연구와 교육이 조화롭게 어우러지는 진정한 고등교육기관으로 거듭날 수 있을 것이다.   A clear distinction must be made between pure disciplines and outdated, outmoded disciplines. Literature, history, philosophy, mathematics, physics, chemistry, biology, earth sciences, etc. are pure disciplines that form the basis of human knowledge and have their own value and raison d'être. They play an important role in fostering human thinking and inquiry, and in providing a foundation for application and practice.   However, no matter how important a pure discipline is, it is no longer a ‘living discipline’ if its educational content is out of touch with the times and only repeats the theories and practices of the past. Content that doesn't keep up with the times and doesn't provide connections to the modern world doesn't really help students learn and grow.   This is also true for modern engineering disciplines such as computer science, electronics, artificial intelligence, and biotechnology. If you're ostensibly teaching cutting-edge skills, but you're relying on technology examples and outdated materials from 10 or 20 years ago, you're no longer ‘cutting-edge’. It is simply a technical education that is stuck in the past and is out of step with the rapidly changing competencies required in the workplace.   Currently, many of the curricula offered in many higher education institutions, including our universities, are structured in such a way that students are forced to repeat what they are familiar with rather than prepare for the future. This is a departure from the essence of student-centered education, and we need to rethink the purpose and direction of education.   In the future, the practice of continuing to provide outdated educational content that does not support students' real growth in the name of “pure academics” should be abandoned, regardless of whether it is pure academics or the latest applied academics. Education shouldn't just be about preserving knowledge from the past, it should be about guiding students to prepare for the future in an ever-changing social and technological landscape.   Of course, not all professors need to play the same role. The balance between research and teaching can vary depending on the academic's career and expertise. However, it is advisable to focus more on research in the 30s and 40s to expand the depth of the discipline, and in the 50s and beyond, rather than focusing only on new research, pay more attention to developing and delivering educational content that is relevant to the times, so that students can build academic foundations based on accumulated knowledge and experience. Only then will universities be able to become true institutions of higher learning where research and teaching are harmoniously combined.   Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.07.27
Read More
25
2025.06

Model Context Protocol (MCP)

Model Context Protocol(MCP)은 인공지능이 외부 도구나 데이터와 쉽게 연결되어 똑똑하게 일할 수 있도록 도와주는 통신 규약이다. 마치 스마트폰을 하나의 케이블(예: USB-C)로 여러 기기와 연결할 수 있는 것처럼, MCP는 인공지능이 구글 드라이브, 날씨 서비스, 데이터베이스 같은 다양한 시스템과 하나의 표준 방식으로 연결되도록 해준다. 과거에는 인공지능이 외부 정보를 활용하려면 각 서비스마다 따로 연결 방법을 만들어야 했기 때문에 개발이 복잡하고 시간이 많이 걸렸다. 그러나 MCP를 사용하면 한 번의 표준 구현만으로 다양한 도구들과 손쉽게 연결할 수 있어 효율성이 크게 높아진다. MCP는 크게 네 가지 요소로 구성된다. 먼저, AI가 직접 사용자와 상호작용하는 앱을 ‘Host’라고 하고, 이 Host와 외부 도구를 연결해주는 중간다리 역할을 하는 것이 ‘MCP Client’다. 실제로 데이터를 가지고 있는 서비스, 예를 들어 날씨 정보나 구글 드라이브 같은 곳은 ‘MCP Server’라고 부른다. 이들 사이의 통신은 JSON-RPC라는 표준 형식을 통해 이루어진다. 예를 들어, 사용자가 “오늘 서울 날씨 어때?”라고 묻는다면, AI는 MCP를 통해 날씨 정보를 가진 MCP Server에 연결해서 실시간으로 서울의 날씨를 요청하고, 받은 정보를 정리해 “오늘 서울은 맑고 25도입니다”와 같은 답변을 줄 수 있다. 이런 방식은 단순한 요청-응답을 넘어서, 실시간으로 정보를 주고받고, 보안과 권한 관리까지 포함되어 안전하고 효율적이다. 기존 방식은 각 도구마다 별도로 연결을 구현해야 했고, 확장성이나 보안이 떨어졌지만, MCP는 하나의 표준으로 다양한 도구를 연결할 수 있고 실시간 상호작용과 안전한 데이터 교환이 가능하다는 점에서 큰 차별성을 가진다. 이처럼 MCP는 인공지능이 단순히 텍스트를 생성하는 도구에서 벗어나, 외부 세계와 능동적으로 상호작용하며 더욱 유용한 도구로 진화할 수 있도록 돕는 핵심 기술이다.
Written by 김성범 교수님 김성범 교수님
2025.06.25
Read More
09
2025.05

AI 위험성

AI 위험성 자동차 산업이 발전할 수 있었던 이유는, 빠르게 달리는 자동차가 사람 앞에서 정확히 멈출 수 있다는 신뢰가 있었기 때문이다. 새로운 기술이 등장하고, 그것이 물리적인 형태로 구현될 때, 안전이 보장되지 않는다면 사람들은 이를 사용하지 않을 것이다. 그러나 AI의 경우는 조금 다르다. AI는 자동차처럼 직접적으로 우리의 생명을 위협하지 않으며, 스마트폰이나 TV처럼 신체에 즉각적인 영향을 미치는 것도 아니다. 또한, 정신적으로도 직접적인 문제를 일으킨 사례도 많지 않다. 즉, AI로부터 발생할 수 있는 위험성이 아직 충분히 밝혀지지 않았고, 이에 대한 경각심도 상대적으로 낮은 상황이다. 하지만 AI는 거대한 맹수와 같다. 지금은 발톱을 드러내지 않고 있지만, 그 잠재적 위험에 대해서는 전문가들 사이에서도 경고의 목소리가 나오고 있다. 특히, 겉으로 드러나지 않는 기술일수록 그 위험성을 면밀히 분석하고 연구할 필요가 있다. AI가 향후 어떤 방식으로 인간 사회에 영향을 미칠지는 아직 예측하기 어렵지만, 현 시점에서 적절한 규제와 윤리적 기준이 마련되지 않는다면, 나중에는 단순한 신호등과 같은 규제 수준이 아니라 훨씬 더 강력한 통제 시스템이 필요할지도 모른다. AI는 결국 인간의 의지에 의해 통제되는 기술일 뿐이다. 따라서 이를 활용하는 인간의 대한 통제 시스템이 반드시 필요하다. 결론적으로, 우리는 AI의 발전을 신중히 검토하고, 그 위험성을 미리 대비해야 한다.   The automotive industry developed because people trusted that a fast-moving car could stop in front of them. When new technologies emerge, and when they are physically implemented, people will not use them if they are not safe. But, AI is a little different. AI does not directly threaten our lives like cars, it does not have an immediate physical impact like smartphones or TVs, and it has not caused many direct mental problems. This means that the dangers it poses are not yet fully understood, and awareness of them is relatively low. AI is like a beast. It may not be showing its claws right now, but experts are warning of its potential dangers. The more invisible the technology, the more it needs to be analyzed and studied. It is still difficult to predict how AI will affect human society in the future, but if proper regulations and ethical standards are not put in place now, we may need much stronger control systems in the future than just traffic lights. AI is, after all, a technology that is controlled by human will, so it is imperative that there is a system of control over the humans who use it. In conclusion, we need to carefully review the development of AI and prepare for its risks. Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.05.09
Read More
30
2025.04

연합학습 (Federated Learning)

연합학습(federated learning)은 데이터를 중앙 서버로 전송하지 않고, 각 로컬 디바이스(스마트폰, 가전제품 등)에서 독립적으로 학습한 모델 정보(파라미터)만을 활용해 글로벌 모델을 구축하는 학습 방식이다. 이 방식의 핵심은 개별 기기에 저장된 데이터를 중앙(외부)으로 전송하지 않고도 모델을 학습시킬 수 있다는 점에 있다. 연합학습의 첫 번째 단계는 중앙 서버에서 초기 모델을 생생한 후 이를 각 로컬 디바이스에 배포한다. 이후 각 로컬 디바이스는 자신만의 데이터(사용자건강정보, 금융거래이력, 가전사용패턴 등)를 사용하여 모델을 학습한다. 이 단계에서는 원본 로컬 데이터가 해당 디바이스를 벗어나지 않는다. 결과적으로 원본 데이터가 절대 외부로 유출되지 않는다. 로컬 학습이 완료되면, 각 디바이스는 학습 과정에서 생성된 모델의 정보(예를 들어, 뉴럴네트워크 모델의 가중치와 같은 파라미터)를 중앙 서버에 전송한다. 이때 로컬 디바이스 모델 학습에 사용된 데이터가 전송되는 것이 아니라 학습 결과인 모델 정보만이 전송되므로 데이터 유출 위험이 근본적으로 차단된다. 중앙 서버는 각 디바이스에서 올라온 모델 정보를 통합하여 하나의 글로벌 모델을 생성한다. 이 과정에서는 통계적 기법이나 최적화 알고리즘을 활용하여 각 디바이스의 학습 결과를 반영한다. 가장 기본적인 통합 방법으로는 각 로컬 디바이스의 가중치를 평균 내어 업그레이드된 글로벌 모델을 생성하는 방식이다. 이렇게 개선된 글로벌 모델은 다시 각 로컬 디바이스에 배포되고, 새로운 로컬 데이터를 바탕으로 재 학습된다. 이러한 단계를 반복적으로 수행하면서 모델의 성능이 점진적으로 개선된다. 연합학습의 가장 큰 장점은 데이터 보안을 보장한다는 점이다. 데이터가 로컬 디바이스에만 저장되고, 중앙 서버로는 모델 정보만이 전송되므로 민감한 로컬 데이터가 외부로 노출되지 않는다. 이러한 특성은 의료, 금융, 제조 데이터처럼 유출에 민감한 정보를 다룰 때 특히 유용하다 또한, 연합학습은 네트워크 효율성을 높이는 데 기여한다. 로컬의 원본 데이터를 대량으로 전송할 필요가 없으므로 네트워크 대역폭 사용량이 감소하고, 전력이 제한된 환경에서도 효과적으로 작동할 수 있기 때문이다. 이는 대규모 데이터 전송이 어려운 환경에서 연합학습의 유용성을 더욱 부각시킨다 종합적으로, 연합학습은 중앙서버에서 글로벌 모델을 유지하면서도 각 로컬 디바이스에 있는 데이터를 활용한 개인화된 학습을 가능하게 한다. 이는 사용자의 특성에 맞춘 서비스를 제공하는 동시에, 전 세계적으로 다양한 데이터를 활용하여 모델의 보편성과 성능을 유지할 수 있다.Federated learning is a learning method that builds a global model using only the model information (parameters) learned independently on each local device (smartphone, home appliance, etc.) without sending data to a central server. The key to this method is that the data stored on individual devices can be trained without sending it to a central (external) location.The first step in federated learning is to train an initial model on a central server and then distribute it to each local device. Each local device then trains the model using its own data (user health information, financial transaction history, home appliance usage patterns, etc. At this stage, the original local data never leaves the device. Once the local training is complete, each device sends the model information (e.g., parameters such as the weights of the neural network model) to the central server. The data used to train the local device model is not transmitted, only the model information that is the result of the training, essentially eliminating the risk of data leakage. The central server integrates the model information from each device to create a single global model. This process uses statistical techniques or optimisation algorithms to reflect the learning results of each device. The most basic integration method is to average the weights of each local device to create an upgraded global model. This improved global model is then deployed to each local device and retrained again based on new local data. By iterating through these steps, the performance of the model is incrementally improved. The biggest advantage of federated learning is that it ensures data security. Because data is stored only on the local device and only model information is sent to the central server, no sensitive local data is exposed to the outside world. This is especially useful when dealing with security sensitive information such as healthcare, financial, and manufacturing data.In addition, federated learning contributes to network efficiency. By eliminating the need to transfer large amounts of local source data, it reduces network bandwidth usage and can operate effectively in power-limited environments. This makes federated learning more useful in environments where large data transfers are difficult. Overall, federated learning enables personalised learning using data on each local device while maintaining a global model on a central server. This enables services to be tailored to the user's characteristics, while maintaining the universality and performance of the model by leveraging data from around the world.Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.04.30
Read More
21
2025.04

인공지능 시대에 꼭 필요한 역량

나는 기업과 학교가 협력하는 산학협력 연구를 많이 해왔다. 산학협력을 시작할 때 가장 먼저 하는 일 중 하나가 연구 제안서를 작성하는 것이다. 제안서에는 연구 목적, 제안 내용, 기대되는 결과물 등 연구의 전반적인 계획이 포함된다. 하지만 실제 연구가 시작되면 계획대로 모든 것이 정확하게 진행되는 경우는 거의 없다. 보통은 초기 계획을 기반으로 연구를 수행하고, 그 결과를 기업과 공유한다. 그러면 기업은 그 결과를 보고 새로운 궁금증을 갖는다. "이런 결과가 나왔는데, 그렇다면 다른 방식으로 접근해보면 어떨까?" 이런 질문이 나오면서 연구는 새로운 방향으로 확장된다. 사실 이런 질문들은 처음 작성한 제안서에 포함되어 있을 수도 있고, 전혀 예상치 못한 새로운 질문일 수도 있다. 연구가 진행되면서 결과를 확인하고, 그 과정에서 의문이 생기고, 더 발전된 질문이 탄생하는 것이다. 이 과정은 연구뿐만 아니라, 인공지능 시대를 살아가는 우리 모두에게 중요한 교훈을 준다. 요즘 ChatGPT 같은 언어 생성 모델들이 나오면서 가장 중요한 능력 중 하나가 "좋은 질문을 던지는 능력" 이 되었다. 하지만 더 중요한 건 인공지능의 1차 답변을 보고, 그걸 바탕으로 더 나은 질문을 할 수 있는 능력이다. 예를 들어, ChatGPT가 1차 답변을 줬을 때, "이 답변이 정확한가?", "이 답변에서 더 깊이 탐구할 부분은 무엇인가?" 등의 이어지는 질문을 던질 수 있어야 한다. 즉, 답변을 단순히 받아들이는 것이 아니라, 그 내용을 검토하고, 부족한 점을 찾고, 이를 기반으로 또 새로운 질문을 던지는 과정이 반복되어야 한다. 결국, 더 나은 질문을 하기 위해서는 더 많은 지식과 깊이 있는 사고가 필요하다. 단순한 정보만 가진 사람은 1차 또는 2차 질문에서 멈추게 된다. 반면, 지식이 깊고 사고력이 뛰어난 사람은 답변을 검토하고, 부족한 점을 찾아내며, 끊임없이 질문을 발전시켜 나간다. 질문을 잘 할 수 있는 방법은 직간접 경험을 많이 해 보는 것이다. 직접 경험으로 가장 좋은 방법은 여행이다. 꼭 아이슬란드, 우유니 사막, 파리, 오사카, 발리, 하와이를 가야만 여행이 되는 것은 아니다. 좋아하는 사람(혼자 포함)과 함께 익숙하지 않은 곳으로 가면 모두 여행이다. 간접적인 경험으로는 독서가 가장 효과적이다. 만화책, 무협지 등 어떤 종류의 책이든 상관없다. 물론 독서는 개인의 타고난 성향에 따라 쉽게 친해지기 어려운 사람이 있다. 이런 사람들은 반드시 한권의 책을 처음부터 끝까지 다 읽으려 하지 말고, 흥미로운 부분만 골라 읽어도 좋다. 인공지능 시대에서 꼭 필요한 역량은 문제 해결 능력이 아니라 문제 정의 능력이고, 이런 능력을 키울 수 있는 가장 좋은 방법은 여행과 독서다.   I have done a lot of research in industry-academia collaborations. One of the first things we do at the beginning of an industry-academia collaboration is to write a research proposal. The proposal includes the overall plan of the research, including the purpose of the research, the content of the proposal, and the expected outcomes. However, once the actual research begins, things rarely go exactly as planned. Usually, the research is conducted based on the initial plan and the results are shared with the company. The company then sees the results and has new questions. “Well, this is what we found, but what if we approached it in a different way?” They ask, and the research expands in new directions. In fact, these questions may have been in the original proposal, or they may be new and unexpected. As the research progresses, results are confirmed, questions arise, and more questions are developed. This is an important lesson not only for researchers, but for all of us in the AI era. Nowadays, with language generation models like ChatGPT, one of the most important skills is the ability to ask good questions. For example, when ChatGPT gives us an initial answer, we need to be able to ask follow-up questions, such as “Is this answer accurate?” and “What are the areas to explore further in this answer?” In other words, we should not simply accept the answer, but examine it, find the gaps, and ask new questions based on it. In the end, asking better questions requires more knowledge and deeper thinking. A person with only simple information will stop at the first or second question. On the other hand, a deeply knowledgeable and thinking person will review answers, identify gaps, and constantly evolve their questions. The way to get better at asking questions is to have a lot of direct and indirect experience. The best way to get first-hand experience is to travel. You do not have to go to Iceland, the Uyuni Desert, Bali, Paris, Osaka, or Hawaii to travel. Anytime you go to an unfamiliar place with someone you love, it is traveling. For indirect experiences, reading is the most effective. It does not matter if it is a comic book, a martial arts book, or any other kind of book. Of course, some people are not naturally inclined to read. These people should not necessarily try to read a book from cover to cover but rather pick out the parts that interest them. In the age of AI, the most important skill is not problem solving, but problem definition, and the best way to develop this skill is to travel and read.   Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.04.21
Read More
06
2025.04

AI 에이전트

AI 에이전트는 인간이 설정한 특정 목적을 달성하기 위해 개별 인공지능 모델을 최적의 조합으로 운영하며, 다양한 작업을 효과적으로 대응할 수 있는 시스템이다. ChatGPT와 같은 언어모델이 특정 질문에 답변하는 데 그치는 반면, AI 에이전트는 이를 넘어 더욱 복잡하고 다양한 작업을 동시에 처리할 수 있다. 1980년대 중반 방영된 미국 드라마 “전격 Z작전 (원제: Knight Rider)”에 등장한 킷트(KITT) 자동차는 AI 에이전트의 대표적인 예시이다. 킷트는 자율주행, 방탄 기능, 터보 부스터, 음성 대화 기능을 갖춘 AI 에이전트 차량으로, 주인공 마이클 나이트의 파트너로 활약했다. 킷트의 음성 인식 및 상황 분석 능력은 마이클이 범죄를 해결하는 데 큰 도움을 주었다. 자동차 앞 부분의 좌우로 움직이며 빛나는 빨간색의 스캐너 램프와 효과음은 키트의 상징이다. 40여년 전 드라마임에도 불구하고, 킷트는 현재 AI 에이전트 개념을 잘 묘사한 예 중 하나이다. 보다 최근의 예로는 아이언맨에 등장하는 자비스(JARVIS)를 들 수 있다. 자비스는 주인공 토니 스타크의 파트너 역할을 하며, 다양한 업무를 수행하는 AI 에이전트이다. 특히 자비스는 아이언맨 슈트의 각종 시스템을 실시간으로 모니터링하고 제어하며, 전투 상황에서 최적의 전략을 제시하는 기능은 AI 에이전트의 가능성을 잘 보여 준다. 비록 킷트와 자비스는 드라마와 영화 속 상상이지만, 우리가 궁극적으로 달성하고자 하는 AI 에이전트의 미래를 보여 주는 사례이다. 완전한 AI 에이전트는 아니지만, 아이폰의 Siri, 갤럭시폰의 Bixby 역시 가상 비서(virtual assistant)로서, 음성 명령을 기반으로 질문에 답을 해 주는 AI 에이전트 기술의 초기 단계를 보여 준다. ChatGPT의 대화기능 역시 텍스트 기반 인터페이스를 통해 사용자와 상호작용하며, 다양한 주제에 대해 유용하고 창의적인 답변을 제공하는 AI 에이전트의 초기 단계 기술이다. 다만 항상 최신 정보를 제공하지 못하거나, 잘못된 정보나 추측성 답변을 제공할 수 있으며, 복잡한 질문에 대해 제대로 된 답변을 하지 못하는 한계점도 존재한다.   An AI agent is a system that operates an optimal combination of individual artificial intelligence models to achieve a specific goal set by a human, and can effectively respond to a variety of tasks. While language models like ChatGPT can only answer specific questions, AI agents can go beyond this and handle more complex and diverse tasks simultaneously.The KITT car from the mid-1980s American TV series ‘Operation Z’ (originally titled Knight Rider) is a classic example of an AI agent. KITT was a self-driving, bulletproof, turbo-boosted, voice-activated AI agent vehicle that served as a partner to protagonist Michael Knight. KITT's ability to recognize speech and analyze situations helped Michael solve crimes. KITT's iconic red scanner lamps and sound effects move from side to side on the front of the car. Despite being set over 40 years ago, KITT is one of the best depictions of the current AI agent concept. A more recent example is JARVIS from Iron Man. Jarvis is an AI agent that serves as a partner to the protagonist, Tony Stark, and performs a variety of tasks. His ability to monitor and control the various systems in Iron Man's suit in real-time, as well as suggesting the best strategy in combat situations, demonstrates the potential of AI agents. Although KITT and Jarvis are fictionalized in TV and film, they represent the future of AI agents that we ultimately hope to achieve. While not fully AI agents, Siri on the iPhone and Bixby on Galaxy phones are virtual assistants that answer questions based on voice commands and represent the early stages of AI agent technology. ChatGPT's dialogue feature is also an early example of an AI agent that interacts with users through a text-based interface and provides useful and creative answers to a variety of topics. However, there are limitations, such as not always having the most up-to-date information, providing incorrect or speculative answers, and not being able to answer complex questions.Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.04.06
Read More
30
2025.03

매일 쏟아지는 AI 기술, 다 따라가야 할까요?

지금 우리는 빠르게 변화하는 인공지능 시대에 살고 있습니다. 매일같이 새로운 기술이 발표되고, 전 세계에서 수많은 논문이 쏟아지듯 나오고 있지요. 그런 흐름을 보고 있노라면, ‘이 모든 것을 다 따라가지 않으면 뒤처지는 건 아닐까?’ ‘나는 너무 느린 건 아닐까?’ 하는 불안감과 조급함이 자연스럽게 따라올 수 있습니다. 수많은 새로운 기술들과 논문들을 모두 읽고, 이해하고, 따라가는 것은 현실적으로 불가능합니다. 지금 이 순간에도 수백 편의 논문이 발표되고 있을 테니까요. 정말 중요한 것은, 필요한 순간이 왔을 때 내가 이 기술을 공부해서 익힐 수 있다는 자신감을 갖는 것입니다. 기술의 흐름은 항상 앞서가지만, 그 흐름을 따라잡는 힘은 바로 기초 체력에서 나옵니다. 여기서 말씀드리는 ‘기초 체력’은 신체적인 근력이 아니라, 인공지능이라는 복잡하고 빠르게 진화하는 학문을 이해하고 받아들일 수 있는 학문적 기반과 사고력을 뜻합니다. 이러한 기초 체력을 키우는 데에는 시간과 인내가 필요합니다. 처음에는 다양한 분야를 넓게 공부하면서 전반적인 흐름을 익히는 것이 좋습니다. 그리고 나중에는 특정한 주제나 기술을 깊이 있게 파고드는 경험이 꼭 필요합니다. 예를 들어, 어떤 알고리즘을 단순히 '사용'하는 것에서 그치지 않고, 그 원리와 한계, 수학적 기반, 그리고 왜 그렇게 설계되었는지를 고민해보는 것이지요. 이런 식으로 깊이 있는 하나의 경험이 쌓이기 시작하면, 처음에는 두렵게 느껴졌던 새로운 기술이나 논문도 점차 익숙하게 느껴지게 됩니다. 하나의 주제에 대해 충분히 깊이 이해하게 되면, 두 번째, 세 번째 주제를 배울 때는 훨씬 더 빠르고 수월하게 접근할 수 있습니다. 마치 운동도 처음에는 힘들지만, 어느 순간 근육이 붙고 나면 점점 즐거워지는 것처럼 말입니다. 작더라도 성공 경험을 만드는 것이 매우 중요힙니다. 스스로 끝까지 이해해본 경험, 처음부터 끝까지 구현하고 실험해본 기억— 이런 경험들이 쌓이면, 스스로가 '나는 이 분야에서 살아남을 수 있다'는 믿음을 가질 수 있게 됩니다. 물론 그 과정에서 중요한 것은, 기본이 되는 수학적 이론들과 핵심적인 방법론들을 차근차근 공부하는 것입니다. 딥러닝 프레임워크를 사용하는 데 그치지 않고, 그 아래 깔린 개념들—선형대수, 확률과 통계, 최적화 이론, 그래프 구조 등—을 자신의 언어로 이해해보는 노력이 필요합니다. 그렇게 기초가 탄탄해지면, 앞으로 새로운 기술이 아무리 빠르게 쏟아지더라도 압도되지 않습니다. ‘지금은 잘 모르지만, 필요할 때 얼마든지 스스로 학습하여 따라갈 수 있다’는 내면의 안정감과 여유가 생기게 됩니다. 그때부터는 불안감이 아니라, ‘기술을 탐구하는 즐거움’이 여러분을 이끌어 줄 것입니다. 완벽할 필요는 없습니다. 때론 흔들리더라도 계속 앞으로 나아갈 수 있는 자기만의 리듬과 힘을 갖추는 것이 중요합니다. 그것이 바로, 지금 우리가 준비해야 할 진짜 '공부'입니다.   We’re living in an era of rapidly evolving artificial intelligence. Every day, new technologies are introduced, and research papers are published at an overwhelming pace. It’s easy to feel anxious: “Do I need to keep up with all of this to avoid falling behind?” “Am I moving too slowly compared to others?” It’s simply not realistic to read, understand, and follow every new paper or technology that comes out. Even now, as you’re reading this, hundreds of papers are probably being published. What matters most is having the confidence that when the time comes, you’ll be able to learn and master what you need. And that kind of confidence comes from foundational strength. By "foundational strength," I don’t mean physical stamina. I’m talking about the intellectual foundation—the academic and conceptual readiness to absorb and understand AI, no matter how fast it evolves. To build that foundation, you’ll first need to explore a broad range of topics to understand the landscape. Then, gradually, you should dive deeply into specific areas, going beyond surface-level understanding. For example, don’t just learn how to use an algorithm. Try to understand why it works the way it does—its underlying principles, mathematical basis, limitations, and design choices. Yes, it’s difficult in the beginning. But once you’ve gone deep into just one area—deep enough to confidently answer any question about it— approaching new topics becomes far less intimidating. It’s like working out: at first, your whole body aches, but as your muscles grow, you start enjoying the process. That’s why having one or two success experiences is so important. They might be small—perhaps you fully understood a model from the ground up, or completed an implementation and experiment from start to finish. But those experiences show you: I can do this. To get there, you’ll need to steadily build your knowledge of the core theoretical concepts and key methodologies in AI. Don’t just use deep learning frameworks—learn the math beneath them: linear algebra, probability and statistics, optimization, computation graphs, and so on. Once your foundation is solid, you won’t be overwhelmed by the constant stream of new technologies. You’ll have the inner calm and confidence to say, “I may not know this now, but I can learn it when I need to.” That’s when anxiety fades, and the joy of exploration takes over. You don’t have to be perfect. You just need the strength to keep moving forward— even when things feel shaky. And that, in the end, is the real learning we need to prepare for in this age of AI.   Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.30
Read More
25
2025.03

학습(training) vs. 추론(inference)

인공지능 모델 개발 과정은 크게 학습과 추론의 두 단계로 구분된다. 학습은 인공지능 모델을 생성하는 과정으로, 생산자 관점에서 접근해야 하는 반면, 추론은 생성된 모델을 활용하는 행위로, 소비자 관점에서 접근할 수 있다. 요즘 젊은 세대들이 테니스를 많이 친다고 하는데, 테니스 코트에 비유하자면, 학습은 초기비용이 많이 드는 하드코트에 해당하며, 추론은 유지비용이 많이 드는 클래이 코트에 해당한다. 학습 과정에서는 고성능 컴퓨팅 자원과 방대한 데이터가 필요하며, 이로 인해 초기 투자 비용과 전력 소비가 매우 크다. 예를 들어, 대규모 신경망 모델을 학습시키기 위해서는 GPU(graphics processing unit)나 TPU(tensor processing unit)와 같은 고성능 컴퓨팅 자원이 필수적이다. 이러한 자원은 복잡한 연산을 병렬로 처리하여 모델의 정확도를 높이는 데 기여하지만, 동시에 높은 비용과 전력 소비를 요구한다. 따라서 학습 단계에서는 고성능 하드웨어 자원을 활용하여 효율적으로 모델을 학습시키는 것이 중요하다. 학습이 완료된 모델은 다양한 사용자에 의해 활용되며, 이때 중요한 요소는 바로 추론의 효율성이다. 추론은 모델이 실제 문제를 해결하기 위해 작동하는 과정으로, 사용자가 많을수록 추론 속도와 전력 소모가 성능에 큰 영향을 미친다. 예를 들어, ChatGPT와 같은 대화형 인공지능 시스템은 동시 사용자 수가 많아질 경우, 추론 효율성이 시스템 전체 성능을 결정짓는 핵심 요소로 작용한다. 따라서 추론 과정에서는 전력 대비 성능이 중요한 설계 요소로 부각된다. 인간의 능력 역시 학습과 추론으로 나누어 볼 수 있다. 학습 능력은 시간을 가지고 꾸준하게 공부하여 지식을 쌓은 과정이다. 추론은 쌓은 지식을 적절히 활용하는 과정이다. 우리나라 교육 시스템에서는 학습 보다는 추론 능력이 뛰어난 학생이 절대적으로 유리하다. 정해진 시간 내에 (그것도 매우 짧은 시간내) 정답을 맞추어야만 좋은 내신과 수능점수를 받을 수 있는 우리나라 교육 시스템에서는 본인이 학습한 지식을 얼마나 빨리 내뱉을 수 있는지가 매우 중요하다. 물론 학습과 추론은 꽤 높은 상관관계가 있지만 소수이긴 하지만 그 관계가 적은 학생들에게는 절대적으로 불리하거나 유리하다. 성실하게 열심히 학습을 했지만 짦은시간 내 그것을 쏟아내는 추론능력이 부족한 학생들에게는 절대적으로 불리한 시스템이다. 내가 생각하는 올바른 교육평가는 학습시간을 성실히 소화한 학생들이 우수한 결과를 받게 하는 것이다. 이를 실현하기 위해서는 단시간에 평가하는 in-class 시험을 줄이고, 충분한 시간을 가지고 본인의 학습 역량을 보일 수 있는 과제, 프로젝트, 동아리 활동 등으로 평가를 하면 좋을 것 같다.  The process of developing an AI model is divided into two main phases: learning and inference. Learning is the process of creating an AI model and should be approached from a producer's perspective, while inference is the act of using the created model, which can be approached from a consumer's perspective. If we use the analogy of a tennis court, where young people play a lot of tennis, learning is the hard court with high initial costs, and inference is the clay court with high maintenance costs.The learning process requires high-performance computing resources and large amounts of data, which results in very high initial investment and power consumption. For example, training large-scale neural network models requires high-performance computing resources such as graphics processing units (GPUs) and tensor processing units (TPUs). These resources contribute to increasing the accuracy of the model by processing complex computations in parallel, but they also come at a high cost and power consumption. Therefore, it is important to leverage high-performance hardware resources during the training phase to train the model efficiently.Once trained, the model is used by various users, and the efficiency of the inference is an important factor. Inference is the process by which the model works to solve real-world problems, and the more users there are, the more the inference speed and power consumption will affect performance. For example, in a conversational AI system like ChatGPT, inference efficiency becomes a key factor in determining the overall performance of the system when the number of concurrent users increases. This makes power-to-performance a critical design factor in the inference process.Human capabilities can also be divided into learning and inference. Learning is the process of accumulating knowledge through consistent study over time. Inference is the process of using the accumulated knowledge appropriately. In our education system, students who are better at inference. than learning have an absolute advantage. In our education system, where the only way to get good grades and SAT scores is to get the right answers within a set time frame (and even then, a very short time frame), it's very important to be able to recall what you've learned quickly. Of course, learning and inference. are quite highly correlated, but for a small minority of students, the relationship is absolutely disadvantageous or advantageous. It is an absolute disadvantage for students who have studied hard and diligently, but lack the inference. skills to produce it in a short period of time. In my opinion, the right way to evaluate education is to reward students who put in the time and effort to learn. To achieve this, we should reduce the number of in-class exams that are assessed in a short period of time and use assignments, projects, club activities, etc. that allow students to demonstrate their learning capabilities over a longer period of time.  Seoung Bum Kim. All Rights Reserved. No part of this document may be cited or reproduced without permission.
Written by 김성범 교수님 김성범 교수님
2025.03.25
Read More