본문 바로가기
AI/AI기초

AI 할루시네이션이란? 문제와 해결 방법, 그리고 로버스트 AI의 필요성

by 짐승 2024. 11. 16.
728x90
반응형

 

AI를 사용해 본 사람이라면 누구나 '할루시네이션(Hallucination)'이라는 현상을 한 번쯤 경험했을 것입니다. 이는 AI가 실제로 존재하지 않는 정보나 잘못된 사실을 진실처럼 만들어내는 오류로, 실제로 2020년 한 자율주행 차량이 도로 위 광고판의 이미지를 실제 신호등으로 착각하여 오작동을 일으킨 사례가 있었죠

 

 

 

이처럼 AI가 현실 세계의 복잡한 요소를 잘못 인식할 경우, 단순한 오류에서 끝나지 않고 심각한 사고로 이어질 수 있습니다. 이러한 위험을 줄이기 위해 AI의 신뢰성과 안전성을 강화하는 것이 필수적입니다. 

로버스트 AI(Robust AI)의 필요성

 

이러한 배경에서 등장한 개념이 '로버스트 AI(Robust AI)'입니다. '로버스트(Robust)'라는 단어는 라틴어 'robustus'에서 유래했으며, '강건한' 또는 '튼튼한'을 의미하는데, 로버스트 AI는 말 그대로 오류에 강하고, 외부 요인에 쉽게 영향을 받지 않는 견고한 AI를 지향합니다.

 

이러한 AI는 데이터의 불완전성이 적고, 안정성을 최우선으로 하여 설계되되며, 특히, 패턴 분석 중 잡음이나 변수가 많은 환경에서도 안정적으로 인식하고 반응하는것을 목표로 합니다. 이를 위해 정칙화와 같은 기법을 활용하여 데이터를 규칙적으로 정리하고, 불필요한 학습 요소를 제거함으로써 인지 오류를 최소화하고 있습니다.

정칙화(Regularization)

 

정칙화(Regularization)는 머신러닝 모델이 너무 복잡해지는 것을 방지하고, 새로운 데이터에 대해 더 나은 성능을 낼 수 있도록 도와주는 중요한 기법입니다.

 

쉽게 말해, 모델이 학습 데이터에 과하게 적응하는 '오버피팅(overfitting)'을 막는 역할을 합니다. 예를 들어, 얼굴 인식 AI가 학습할 때 특정 조명의 각도에서만 얼굴을 잘 인식하도록 과도하게 학습한다면, 이는 오버피팅된 상태로, 이 문제를 해결하기 위해 L1 정칙화(Lasso)와 L2 정칙화(Ridge)라는 두 가지 방법이 주로 사용됩니다.

 

L1 정칙화는 모델의 일부 가중치를 0으로 만들어 불필요한 요소를 제거하고, 모델을 더 간결하게 만들어 줍니다. 예를 들어, 사진에서 불필요한 배경 정보를 제거하여 얼굴 인식에만 집중하도록 하는 것입니다.

 

반면에 L2 정칙화는 모든 가중치를 조금씩 줄여 모델이 데이터를 안정적으로 처리할 수 있게 합니다. 이는 조명이나 각도가 조금 달라져도 얼굴을 인식하는 데 문제가 없도록 하는 효과를 줄 수 있습니다.

생성형 AI의 할루시네이션 문제 해결 방법

 

뿐만 아니라 로버스트 AI에서는 생성형 AI에서 발생하는 할루시네이션 문제를 해결하기 위해 여러 접근법이 사용되고 있습니다.

 

첫 번째 방법은 '어텐션 메커니즘(Attention Mechanism)'과 같은 기술을 활용해 AI가 단어와 문장 간의 관계를 더 정확하게 이해하도록 하는 것입니다. 어텐션 메커니즘은 AI가 각 단어의 중요도를 평가하여 문맥을 보다 명확히 파악할 수 있게 해주는 매커니즘으로 대표적으로는 번역기(Transformer) 모델에서 사용된 '셀프 어텐션(Self-Attention)'이 있습니다. 셀프 어텐션은 입력된 단어와 다른 모든 단어 사이의 관계를 학습하여 문맥을 정확하게 이해하는 것을 목표로 하여 만들어 진 알고리즘으로, 실제 문맥을 파악하는 노력을 한다 정도로 이해하시면 되겠습니다.

 

두 번째로는 '데이터 증강(Augmentation)' 기법이 있습니다. 데이터 증강은 기존의 데이터를 변형하거나 새로운 데이터를 생성하여 학습 데이터를 늘리는 방식으로, 모델이 더 다양한 상황에서 학습될 수 있도록 하는 방법 입니다.

대표적인 데이터 증강 기법에는 이미지 회전, 색상 변환, 크기 조절을 통해 데이터를 늘리는 방법이 있습니다. 예를 들어, 자율주행차 AI의 경우 동일한 도로 장면을 다양한 각도로 변형해 학습시킴으로써, 실제 주행 상황에서 발생할 수 있는 다양한 조건을 모델이 잘 인식하도록 하는 방법입니다. 

뿐만아니라, AI가 답변을 생성하기 전에 추가 정보를 검색해 검증하거나, 계산기를 사용해 숫자 데이터를 검산하는 방식으로 정확성을 높이는 것입니다. 이러한 기법들은 로버스트 AI의 개념과도 일맥상통하며, AI가 보다 신뢰성 있는 결과를 제공한다 이해하시면 됩니다.

블랙박스 문제와 설명 가능한 AI(XAI)

또한, 현대의 AI는 종종 '블랙박스(Black Box)'라고 불립니다. 이는 AI가 결론을 도출하는 과정을 명확히 설명하지 않고, 단순히 결과만을 제시하기 때문인데, 이런 특성 때문에 AI의 판단이 왜 그렇게 이루어졌는지를 알기 어렵고, 이는 산업 현장에서 신뢰성과 불만이 누적될수있다는 점이 지적받습니다.

 

이러한 이유로 '설명 가능한 AI(XAI, Explainable AI)'의 필요성또한 대두되었고, 설명 가능한 AI는 AI가 어떻게 결론에 도달했는지를 이해하기 쉽게 풀어내어, AI의 판단을 사람이 명확히 추적하고 신뢰성을 진보시키는 것을 목표로 합니다. 결국, AI가 산업 현장에서 실질적으로 사용되기 위해서는 그 과정이 투명하게 공개되어야 하며, 사람이 이해할 수 있는 방식으로 설명되어야만 한다는 점이 문제점중 하나입니다.

 

이는 아래의 글에서 자세하게 다뤘으니 여기를 참조해주시기를 바랍니다.

 

 

설명 가능한 인공지능(XAI)[XAI개념, AI와 XAI차이, 적용사례,한계]

인공지능(AI)은 현재 거의 모든 산업에서 혁신을 주도하고 있으며, 그 영향력은 계속해서 확장되고 있다. 그러나 AI가 인간의 삶에 깊숙이 자리 잡으면서, AI의 결정 과정을 이해하고 신뢰할 수 있

beast1251.tistory.com

 

AI 공정성 문제와 해결 방안

 

AI의 공정성 또한 중요한 문제입니다. AI는 학습에 사용하는 데이터에 의해 편향된 판단을 내릴 가능성이 매우 크다는 점이 문제로 지적됩니다.

 

예를 들어, AI가 학습한 데이터의 대다수가 서구권에 편중되어 있고, 연구자는 남성 중심이기에 세계 인구 분포와는 다른 편향된 결론을 낼 수 있는 문제가 있습니다.

 

실제 사례로, 2018년 아마존의 AI 채용 시스템이 남성 지원자에게 더 높은 점수를 부여하는 문제가 있었습니다. 이는 AI가 과거 채용 데이터에서 주로 남성 지원자가 채용된 기록을 학습하면서 남성 중심의 편향된 패턴을 그대로 반영했기 때문입니다. 당시 아마존은 과거 수년간의 채용 데이터를 활용해 AI를 개발했는데, 이 데이터에는 남성 지원자가 더 우선적으로 채용된 경향이 강하게 나타나 있었습니다. 결과적으로, AI는 '남성이 더 적합하다'는 잘못된 결론을 내렸고, 여성 지원자들의 평가가 불공정하게 이루어졌습니다. 이러한 문제는 AI의 편향성을 극명하게 드러낸 사례로, 이후 아마존은 해당 시스템의 사용을 중단하게 되었습니다.

 

또 다른 사례로, SAT 시험 답안 채점 시 AI가 백인 학생들에게 유리한 점수를 부여하는 경향이 있었다는 연구 결과도 있습니다. 이는 AI가 학습한 데이터의 대다수가 백인 학생들로부터 수집된 자료였기 때문입니다. 이러한 편향된 학습 데이터는 백인 학생들에게 익숙한 표현과 단어에 더 잘 반응하게 만들었고, 이로 인해 다른 인종의 학생들이 불리한 평가를 받는 결과로 이어졌습니다. 실제로 SAT 시험에서 AI가 작성한 답안을 채점하는 과정에서, 동일한 논리적 구성을 가진 답변이라도 백인 학생들이 자주 사용하는 표현과 문장이 높은 점수를 받는 경우가 빈번히 보고되었습니다. 이는 AI가 특정 문화적 배경에 맞춰 학습됨으로써 다양한 배경을 가진 학생들에게 공정하지 않은 평가를 내리는 문제로 이어졌으며, 이러한 문제가 지적되면서 채점 시스템의 신뢰성이 크게 훼손된 사례입니다.

데이터 편향성 해결을 위한 노력

 

이러한 편향성을 해결하기 위해서는 정기적으로 데이터 세트를 재검토하고, 다양한 출처의 데이터를 포함하여 공정성과 다양성을 확보하는 노력이 필요합니다. 이를 위해 데이터 수집 단계에서부터 문화적, 지리적, 인구학적 다양성을 고려하여 데이터의 편향을 최소화해야 합니다. 예를 들어, 인종, 성별, 경제적 배경 등 여러 요소를 반영한 데이터를 사용하여 AI가 특정 그룹에 편향되지 않도록 하는 것이 중요합니다. 또한, 데이터 검증 과정에서는 전문가들이 직접 데이터의 품질을 점검하고, 잠재적인 편향 요소를 식별하여 이를 수정하는 과정이 필요합니다.

 

이와 더불어 정칙화(Regularization), 데이터 증강(Data Augmentation) 같은 기법을 반복적으로 적용하여 모델이 특정 데이터에 과적합되지 않도록 하고, 다양한 상황에서 안정적으로 작동할 수 있도록 해야 합니다. 정칙화는 모델이 과도하게 복잡해지지 않도록 제약을 걸어 오버피팅을 방지하고, 데이터 증강은 기존 데이터를 변형하거나 새롭게 생성하여 학습 데이터의 다양성을 높이는 역할을 합니다. 예를 들어, 이미지 데이터를 활용한 학습에서는 회전, 색상 변경, 확대와 같은 변형을 통해 더 다양한 학습 샘플을 제공받아 AI의 성능을 증진켜야만 할것입니다.

 
반응형