📱 IT

⏳ 초보자를 위한 XAI – 설명 가능한 인공지능, 어디서부터 시작됐을까?

digital-nagane 2025. 3. 28. 14:29
반응형

 

안녕하세요, 디지털 나그네입니다.

 

우리는 지금 AI와 함께 살아가고 있습니다.
그리고 그 AI가 왜 그렇게 판단했는지 설명해주는 기술, 바로 XAI도 점점 중요해지고 있죠.

그런데 문득 궁금해졌습니다.

“설명 가능한 인공지능(XAI)은 언제부터 시작됐을까?”
“왜 지금에서야 이렇게 주목받고 있을까?”

이번 글에서는 XAI의 과거와 현재, 그리고 미래로 가는 흐름을 따라가 보겠습니다.


🧮 XAI 이전 – 기계는 원래 설명하는 존재였다?

 

사실 인공지능이 등장하기 전, 우리는 **전통적인 규칙 기반 시스템(rule-based systems)**을 사용했습니다.
예를 들면, 이런 식이죠:

 

nginx


IF '온도' > 30도 THEN '에어컨을 켜라'

 

이런 시스템은 설명 그 자체였습니다.
우리가 직접 만든 규칙이니, 결과도 예측 가능하고 이유도 명확했죠.
하지만 이런 시스템은 복잡한 문제를 해결하긴 어려웠습니다.


🧠 AI의 발전과 ‘블랙박스’의 등장

 

2000년대 이후, 특히 2010년대에 들어서면서
딥러닝(Deep Learning) 기술이 급격히 발전했습니다.

딥러닝은 수많은 데이터를 바탕으로
사람보다 더 정교하게 패턴을 인식하고
스스로 규칙을 학습하는 모델이었습니다.

그런데 문제는 이겁니다.

“결과는 정확한데… 왜 그렇게 판단했는지는 모르겠다.”

바로 ‘블랙박스(Black Box)’라는 비유가 등장한 이유입니다.
모델 안에서 무슨 일이 일어나는지 사람이 알 수 없는 상태가 된 거죠.
이건 특히 의료, 금융, 법률 같은 분야에서 큰 위험 요소가 되었습니다.


🔍 2016년 – XAI, 하나의 연구 분야로 본격 등장

 

미국 국방고등연구계획국(DARPA)은 2016년,
XAI 프로그램(Explainable Artificial Intelligence program)을 시작하며 이렇게 말했습니다:

"AI가 인간과 함께 작동하려면,
그 AI는 자신의 행동을 설명할 수 있어야 한다."

이 선언은 기술계에 큰 반향을 일으켰습니다.
그전까지 ‘정확도’만 중시하던 흐름에서
이제는 ‘이해 가능성’, ‘신뢰성’도 핵심 가치가 되었죠.

 

XAI는 단순한 기능이 아니라, AI 시스템의 윤리와 책임성을 위한 방향성으로 자리 잡기 시작했습니다.


🌍 이후의 흐름 – 기업과 연구소도 XAI에 주목하다

 

2018년 이후부터는 구글, 마이크로소프트, IBM, 오픈AI 같은 기업들도
XAI 관련 기술을 발표하고 적용하기 시작했습니다.

  • 구글의 What-If Tool
  • IBM의 AI Explainability 360 Toolkit
  • 오픈AI의 ChatGPT에 대한 설명 가능한 프롬프트 구조 등

또한 세계 각국의 정부와 기관도 AI 규제와 윤리 가이드라인
설명 가능성과 투명성을 명시하기 시작했습니다.

설명할 수 없는 AI는 위험하다는 공감대가 생긴 것이죠.


🚀 지금 그리고 앞으로 – XAI는 어디로 가고 있을까?

 

지금의 XAI는 “왜 그렇게 판단했는가”를 설명하는 것에서 한 걸음 더 나아가
사람이 그 판단을 받아들이고, 필요한 경우 반박하거나 조정할 수 있게 하는 것을 목표로 하고 있습니다.

또한 최근에는 생성형 AI까지 XAI의 대상이 되고 있습니다.

  • ChatGPT가 어떻게 답을 생성했는지
  • 추천 시스템이 왜 그 콘텐츠를 보여줬는지
  • AI가 만든 예술이 어떤 흐름을 따라 만들어졌는지

AI가 인간의 파트너가 되기 위해서는,
자신의 ‘생각 과정’을 보여줄 수 있어야 한다는 것,
이것이 바로 XAI가 만들어가고 있는 새로운 길입니다.


📘 디지털 나그네의 한마디


"AI는 이제 사람 곁에 있습니다.
그리고 XAI는 그 AI가 사람과 진짜로 '대화할 수 있게' 해줍니다."

 

XAI의 역사는 이제 막 쓰이기 시작했는지도 모릅니다.
기술이 더 인간을 닮아갈수록,
우리는 더 깊은 질문을 하게 될 테니까요.