튜링 테스트는 적절한가 
 
 
 
 
+. 게시판 성격에 안맞는건 아닌가 모르겠습니다. 


앨런 튜링은 1950년에, '생각한다'라는 말에 대해 정의를 내리는 대신에 튜링 테스트라는 실험을 제안하고, 이 테스트를 통해 특정한 기계가 지능이 있는지를 결정할 수 있다고 주장하였다. 우리가 흔히 생각하는 튜링 테스트는 원래에서 단순화된 형태로, 답변자와 질문자가 있어 (기계인) 답변자가 질문자로 하여금 자신이 인간이라고 믿게끔 설득하는 형태로 단순화되어있다. 

하지만 원래 튜링이 제안한 오리지널은 그와는 조금 다르게, 답변자가 둘이고, 그 중 하나는 기계가 된다. 질문자는 그들에게 몇 개의 질문을 던진 후에 게임의 마지막에서, 둘 중 어느 쪽은 인간이고 어느 쪽은 기계인가를 판단한다. 기계는 자신이 어느 쪽인지 모르게 하는 것이 게임의 목표고, 다른 답변자인 인간은 그를 돕고 질문자는 그들을 가려낸다. 이 방식은 단순화된 테스트와는 달리 한 번의 시도로는 결과물을 얻기 어렵고, 반복을 통해 질문자가 얼마만큼 잘못된 판단을 하는지에 대해 측정할 필요가 있다.

오리지널이건 단순화된 방식이건, 튜링 테스트는 과연 적합한가 그것은 인간 수준의 AI를 판별해낼 수 있는가 

튜링 테스트에서 AI유닛(이라고 하자. 위에선 '기계인 답변자'가 된다)은 DB(데이터베이스)의 기계적인 추가만으로도 세심하지 않은 인간을 얼마간 속이는 것은 가능하다. 특정 단어들에 반응하여 적당한 반응을 뱉어내는 '맥스'와 같은 식의 대화 유닛 말이다. 답변자를 다섯으로 늘리고, 그 중 하나만이 기계인 경우는 어떤가 세심하지 않은 인간과 세심히 짜여진 AI의 경우 그 하나를 짚어내기 위해 던져야 할 질문은 점점 많아질 것이다. 나는 튜링 테스트에서 기계를 판단해낼 수 있는 질문 다섯 가지를 던지라는 연습문제에 이런 답변을 제출했다. 

1. 지금은 몇 시입니까 (별 의미없는 질문. '낚시')
2. 며띠였또 (문법적 오류. 또한, 동일한 질문의 반복.)
3. 이탈리아의 빅장수비는 400미터 안의 살아있는 모든 것을 침묵시키는 것이 사실입니까 ('빗장'과 '빅장'의 유사성을 이용한 말장난)
4. 뉴턴의 재채기와 비트겐슈타인의 기의가 파인만적으로 재구성된 양자가 튜링에겐 혁명적 마니페스토로 들린다는 것이 파랗습니까 (아무 의미없는, 두억시니적 질문)
5. 파란 나라를 보았니 꿈과 사랑이 가득한. (중의적 질문)

2번을 통해 반복 질문에 대한 인간적인 답변('뭐야 왜 또 물어봐', '3초 지났어')을 기대해볼 수 있고, 3번의 경우 센스있는 사람이라면 적당히 받아칠 것이다. 4번은 인간이라면 애초에 아무 의미가 없는 이름들이 결합되어 있음을 금방 눈치챌 것이고, 5번은 적어도 db 담당자가 꾸준히 db를 업데이트하고 있는지 정도는 알 수 있지 않을까 내가 가장 중점을 두고 답변을 체크하고 싶은 질문은 3번이다. 당신은 뭐라고 대답하겠는가 

무한에 가까운 연산속도를 가진, 그러니까 어떠한 개별연산의 경우에도 처리시간이 0에 수렴하는 연산처리장치와 무한에 가까운 DB를 가진 유닛을 가정하자. 공학도와 게이머들의 꿈인 그 유닛이 있다면, 그것만으로 AI를 구현해낼 수 있을까 AI 구현의 상당 수의 문제들은 알고리즘과 연산 속도의 현실적이고 공학적인 문제로 귀결된다. 최선의 선택을 하기 위해 취해야 하는 연산의 양이 지나치게 많기 때문에 포기해야 하는 부분이 상당히 많은 것이다. 하지만 앞서 말한 유닛을 가정한다면 그런 문제들을 일단 접어둘 수 있다. 미래엔 기계의 연산처리능력은 지금의 기준으로 거의 무한에 가까워질 것이고, 연산능력의 강화만으로도 AI가 구현될 수 있다면 우린 그것만을 기다려도 언젠가는 인간처럼 생각하는 안드로이드들을 만날 수 있지 않을까 

그러한 유닛을 상정하고, 이러한 예상질문들에 대해 무한히 업데이트해 나간다면 언젠가는 인간을 온전히 속이는 것이 가능할 것이다. 그리고, 그렇다면 그것은 '생각한다'고 봐도 좋다는 것이 튜링의 주장이기도 하다. 하지만 이것은 '무한'의 함정이다. 연산속도가 거의 무한처럼 여겨지는 CPU가 가능하다고 해도, 인간이 예상질문들을 '무한히' 업데이트하는 것은 현실적으로 불가능하다. 또한 무한한 업데이트를 한다고 해도 완벽하게 동일한 질문이 맥락에 따라, 상황에 따라 다른 답변을 요구하는 것은 어떻게 할 것인가

최근의 대화 유닛들은 상당한 성능을 보인다. 타이핑 속도를 감안하여 문장의 길이에 따라 적당한 지연을 두고 대답하는 것은 기본이고, 애교로 가끔 오타를 내주기까지 한다. 채팅 중에 연산을 시켰을 경우에도 미칠듯한 스피드로 대답하여 서로를 데면데면하게 만드는 일 따위는 이미 없다. 적당히 인간적인 속도로 계산하고, 이 역시 가끔은 귀엽게 틀려주신다. 그 방법 또한 인간이 주로 틀리는 부분을 인식하고, 얼추 그에 맞게 받아올림 실수라던가, 하는 테마를 정해서 적당히.

오타가 입력되었을 때 적당히 알아듣는 정도는 간단하다. 책마을의 회원검색 시스템 조차도 어느 정도 인접한 이름은 알아서 찾아준다. 다만 오타가 다시 의미를 갖는 문장이 되었을 때는 어떤가 '생일 축하해'와 '생ㅇ리 축하해'라던가, '저녁 먹었어'와 '저년 먹었어'의 오타를 판단해낼 수 있을까 문법적 오류나 이러한 종류의 오타에 대해서 대응하려면 개념을 탑재, 아니 적어도 맥락을 파악하는 능력을 갖지 않으면 안된다. 맥락 파악 기능을 구현하는데 있어서 가장 간단한 방법은 이전의 문장들을 분석하여 카테고리를 나눈 후에 기본적으로 비슷한 카테고리의 문장들이 나온다고 가정하는 방식이다. 하지만 카테고리를 나누는 일은 대체 어떻게 해낼 것인가 이 역시 '무한한' db의 추가를 통해 

'말장난' 역시 비슷하다. 기표의 말장난은 해결할 수도 있다. '빅장수비'와 '빗장수비'는 종성음 하나가 다를 뿐인 유사한 단어이고, '지우개'와 '(최)지우 개'의 경우에도 띄어쓰기에서 차이가 하나 있긴 하나 상당히 유사한 단어다. 어떻게든 단어들을 처리할 능력이 있다고 가정한다면 인접한 단어를 찾아내는 것만으로도 어느 정도 인접한 단어나 동음이의어를 이용한 말장난 정도는 기계가 직접적으로 상징을 판단할 수 있는 능력 없이도 처리해낼 수 있다. 인접한 단어들을 판단해내는 기능을 강화하는 것은 공학적으로 그리 어렵지 않고, 결과적으로 이러한 말장난은 손쉽게 이해(한다고 인간이 생각하게)할 수 있다.

하지만 단어의 뜻 자체를 이용한 말장난은 어떤가 난 기의의 유사성을 이용한 말장난은 분명히, '창조적'이라고 본다. 사전에 있는 단어만을 사용한다고 해도 언어 생활이 그 이상의 창조성을 가질 수 있는 이유 중 하나는 바로 말장난에 있는 것이 아닐까 기계가 이러한 말장난들을 판별하고, 적절한 대처로 받아칠 수 있는 알고리즘이 가능하기나 할까 기표에 대해서 행해졌던 것처럼, 기의에 대해서 인접한 단어들을 링크로 이어주는 작업은 거의 불가능한 일이며, 어느 순간에 그것을 전부 행할 수 있다고 해도 그러한 링크들은 계속해서 생겨난다. 위의 질문, '파란 나라를 보았니 꿈과 사랑이 가득한.' 과 같은 말에 담아내는 의미들은 2주 전까지는 분명 존재하지 않았다. 


우리는 이상의 사유를 통해서, 현재와 같은 방식으로는 '무한한' 연산속도를 가졌고 끊임없는 db업데이트를 지속하는 유닛이라고 해도 튜링테스트를 통과하기에는 힘들다는 결론을 얻을 수 있다. 충분한 지식을 갖고 정밀한 질문들을 던지는 질문자의 마수에서 벗어나기 이해서는 언어에 대한 기존과 같은 기계적인 접근 뿐만이 아니라, 상징 그 자체를 처리할 능력이 있어야 한다는 것이다. 

언어를 습득한 후의 인간은 세계를 상징화하여 처리한다. 실제 사과를 볼 때와 '사과'라는 단어를 볼 때 인간의 뇌에서 활성화되는 부위가 동일하다는 연구결과는 의학적 측면에서 이러한 사실을 뒷받침한다. 인간은 선험적으로 상징을 처리할 수 있는 능력을 갖고 있다는 것이다. 하지만 기계가 인간과 동일한 언어를 공유해야 할 이유는 없지 않은가 인간이나 동물이 어떠한 방식으로 지능을 가지건 지능적인 기계를 설계하기 위한 공학적인 문제와는 아무런 상관이 없을 수도 있다. 전혀 새로운 인공물의 지능 유무를 평가하는 방식은 인간과 전혀 다른 방식으로 사고하는 외계 생명체의 지능을 밝혀낼 수 있는 방법과 같아야 한다. 

튜링 테스트가 언어 사용이라는 기술적 측면만을 판단하지는 않는다는 점은 앞에서 설명했다. 결국 그들의 등짝에 찍힐 튜링테스트에 통과하였음 도장은 무엇을 의미하는가 튜링 테스트에 통과하였다는 것은 간단히 인간 수준의 대화 능력을 갖췄으며,  '대화'가 가능하다고 가장 신중한 인간조차 생각하게끔 하는 방법은 결국에는 정말로 창조적인 언어 구사 밖에 없다. 결국 튜링 테스트에 통과하기 위해서 유닛은 인간의 언어를 이해하고 처리하고 구사하며, 그 언어들이 결국엔 세계의 표면에서 문을 두드릴 뿐이라는 것을 이해해야 한다. 

하지만 개나 고양이와 같은 방식으로 작동하는 AI유닛은 어떤가 개나 고양이를 튜링의 법정에 세우는 것은 불가능하다. 그것은 그들의 언어를 우리가 통역할 재주가 없기 때문이기도 하지만, 그들이 세계를 상징 없이 직접적으로 인식하기 때문이다. 결과적으로 튜링 테스트에 통과한 유닛은 지능을 가졌다고 볼 수 있겠지만, 튜링 테스트에 통과하지 못한 모든 유닛이 지능을 갖지 못한 것은 아니라고 볼 수 있다. 결국, 튜링 테스트는 보편적인 유닛의 지능 유무를 판단해내는 용도보다는 한 개별 유닛이 인간 수준의 지능을 가졌는가, 에 초점을 두고 설계되었다고 보는 것이 옳다. 

참고로, 내 친구이자 복학생인 J는 간단화된 튜링테스트를 통하여 나에겐 지능이 없다는 결론을 도출했다. 참으로 정확한 결과라 하지 않을 수 없다. 



얇은 지식과 짧은 식견으로 글을 쓰기란 과연 힘든 일이군요. 연과 미, 은, 그리고 다른 여자 아이들의 이름과, 별과 달과 어머니, 어머니의 이름을 외치며 억지로 억지로 글을 맺긴 했습니다만, 좀 더 공부한 후에 이 글을 보강할 기회가 있으면 좋겠습니다. 이 글은 김청하 씨가 부족함을 절감한 돌로 여기에 남겨둡니다. 많은 조언과 질책 부탁드립니다. 
 병장 김동환님에 의해서 게시물 복사되었습니다 (2006-07-11 0749) 

  
 
 
 
 병장 김동환 (20060608 145721)

오호. 튜링테스트라. 
저는 첨들어봤어요. 재밌었습니다.(웃음)    
 
 
 병장 박진우 (20060608 152228)

청하씨의 새글이군요! 
튜링테스트가 이런거였군요. 기계의 AI라... 
청하씨는 부정적으로 바라보시는군요. 호호... 

그렇다면 미래의 데커드는 존재하지 않는다는건가!    
 
 
병장 김태경 (20060608 163253)

아무래도 인류의 미래를 결정지을 인공지능의 탄생을 튜링테스트로 판단하는건 적절하지 않아요. 
튜링테스트는 단순히 인공지능이 인간과 구분될수없는 어학적 능력이 있는지만 판단하거든요. 
실제로 개발되는 인공지능의 경우는 어학적 능력을 가지고 있는 경우는 드물죠. 별로 필요가 없거든요. 하지만 이렇게 인간처럼 생각하고 말하지 못하는 인공지능이라도 충분히 위협적입니다. 인류는 점차 그 단순한 인공지능들에 판단을 맡기게되고, 결국은 스스로는 어떤것도 판단할수없는 존재가 될지도 모르지요.    
 
 
상병 김청하 (20060608 163642)

무플 방지에 감사드립니다. 흑흑. 제목을 좀 더 낚시성으로 달까 하다가 차마 그러질 못했는데. 

Searle.J. 라는 사람은 사고 작용은 아주 특별한 기계, 즉 단백질로 구성된 살아있는 기계에서만 발생할 수 있는 현상이라는 주장을 하기도 한답니다. 물론 이에 반박하는 의견도 많구요. 전 필연적으로 단백질이어야 한다는 생각은 하지 않습니다만, 과연 '인공지능'이 가능할지에 대해선 회의적입니다.   
 
 
일병 이건룡 (20060608 163930)

문화 인류학의 민족지 조사를 통하여 (잘못된 표현이지만)미개사회에 대한 연구와 그들의 '응시'와 삶의 방식에 대해서 연구한 내용들로 알수 있는 환경에 나름의 사고로 적응하는 그들의 삶이 마치 청하분의 언어사용 측면(상징화된 체계로 구조화되며 심화 된다는)과 비슷하다는 느낌을 받았습니다. 별뜻이 있는 소리는 아닙니다. 단지 허탈한 웃음 짓으며 잘읽고 간다는 뜻입니다.    
 
 
상병 김청하 (20060608 164934)

태경 튜링 테스트가 몇 가지 면에서 부적절한 면을 보인다는 점에는 동의합니다. 다만 인공지능이 인류의 미래를 결정지을지는 잘 모르겠고, 튜링 테스트가 의도하는 것은 애초에 '성공한 인공지능'에 대한 언어 구사력을 통한 검증이지 '이 물체가 지능을 가졌는가' 하는 것은 아니라는 생각입니다.   
 
 
상병 조주현 (20060608 181501)

잘읽었습니다. 
매우 신기한걸요!    
 
 
상병 이훈재 (20060608 232322)

네. 튜링머신이 인공지능(AI)의 기준이 될 순 없겠죠. 

인지과학개론을 공부하면서 튜링머신의 멈춤문제(halting problem)에 대해 배운 적이 있어요. 튜링 테스트의 한계를 지극히 논리적으로 증명했던 것 같은데 기억이 잘 나지 않네요.. 그러니까, 

무한의 루프를 돌지 않으면서 임의의 프로그램을 결정할 수 있는 프로그램을 만드는 것이 불가능하다는 당연한 얘긴데, 괴델의 불완전성 정리라고 아무리 무모순의 정확한 시스템에서라도 그 체계 내에 증명불가능한 명제가 존재한다. 고 기계의 한계를 지적하죠. (어쩌면 동시에 인간의 한계일지도 모릅니다. 우리가 지능을 너무 과도하고 평가하고 있을지도 모르죠.) 

예컨대 어떤 머신이 프린트 하는 모든 문장이 참이라고 했을 때, 
- 거짓인 문장은 프린트 할 수 없다는 문장은 프린트 할 수 없다. - 라는 문장의 참, 거짓을 가릴 수 없다는 얘기에요. 만약 거짓이라면, 즉 저 문장을 프린트 할 수 있다면 문장에 포함되어 있는 거짓인 문장을 프린트하게 되어 모순이고, 참이라면 거짓인 문장은 프린트 할 수 없다 는 문장이 거짓이어야하는데 역시 모순이니까요. 

이게 아마 자기자신의 참.거짓 여부를 결정할 수 있는 시스템은 존재할 수 없다는 얘기 같은데요, 실제로 컴퓨터 프로그래밍에서 재귀함수는 자기 자신이 끊임없이 자기 자신을 호출하여 위력적인 결과를 내놓지만, 정작 함수 자체의 참 거짓, 실행여부를 결정할 수 있는 값을 리턴할 수는 없는 것이니까요. 결국 근본적으로는 데이터가 아무리 많이 쌓이고 아무리 실시간으로 무한대 축적된다하더라도, 논리적으로 프로그래밍 되지 않은 내용에 대해서는 활용할 수 없는 쓰레기와 같다는 진부한 얘기의 반복이겠죠. 

그런데 사실 이런 문제는 AI를 완벽하고 정확한 시스템을 가지고 구현한다는 전제 때문에 발생하는 데, 태경님이 말씀하신 단백질로 구성된 기계말고도, 입체메모리인가해서 연산하면서 용량이 확장, 증폭되고 정보가 변형되는 식의 시스템도 연구되고 있대요. 다만 제 짧은 생각으론 인공지능이라는 게 워낙 사람을 닮자는 느낌이 강하다보니까 그런거지, 그렇게보면 그냥 튜링머신만으로도 충분히 의의가 있고, 노가다로 비슷하게 흉내내면 그만인거죠.    
 
 
 병장 노지훈 (20060609 013246)

튜링 기계만으로는 인공지능의 가능성을 판단하는 것이 불충분하죠. 튜링기계가 가정하는 것은 완전히 논리적 연역으로만 이루어진 지능이고, 그 지능이 세상에 존재한다면 그것은 그 자신의 논리적 체계를 이용하여 세계를 설명할 수 있어야 되겠지요. 그게 안된다면 오직 참만을 도출하는 기계는 세상의 수많은 모순과 역설 앞에서 무너지겠죠. 그 중 하나가 불완전성의 정리겠지요. 
하지만 튜링기계가 아니더라도 인공지능은 가능하다고 봅니다. 그 실례로 인간이 있지 않나요. 인간의 지능을 논외로 두고 인공지능의 불가능성을 논한다는 것은 신의 위대함 앞에 경배하는 것 밖에 안됩니다. 나비효과란 현상이 있지요. 약간 엉뚱한 예이긴 하지만 나비의 작은 날개짓만으로 그 뒤에 파생되는 현상은 엄청나게 복잡해집니다. 그처럼 인간의 지능도 수많은 상황 속에서 무한히 복잡한 반응을 하지만, 사실 그 매커니즘 또한 무한히 복잡하지는 않을 것이라는 생각입니다. 

저는 곤충들의 행동 패턴을 보면서 1mm로 안되는 뇌를 가지고 있으면서 어떻게 저런 복잡한 행동을 할 수 있을까 고민했던 적이 있습니다. 그러다 지능의 발견이라는 책을 읽게 되었는데요. 거기에서 곤충의 행동 패턴이 복잡하긴 하지만 몇가지 간단한 매커니즘으로 가능한 것을 알게 되었습니다. 그리고 그 책의 마지막 부분에서 충격적인 주장을 발견했는데요. 인간의 지능도 특정한 조건들에 대한 조건 반사의 매커니즘들이 수없이 유기적으로 결합된 것에 지나지 않는다는 것입니다. 다시 말해 곤충들의 간단한 매커니즘이 복잡하게 발달한 것에 지나지 않는다는 것입니다. 이 주장을 받아들이면 인간의 영혼과 감정에 대한 믿음들은 어떻게 되는가 하는 문제가 발생하지만, 그 책의 저자는 인류가 이제까지 천동설에서 지동설로 창조론에서 진화론으로 충격적인 사실들 앞에서 고뇌했지만 모두 이겨내고 발전해왔기에 이것 또한 인류가 극복해야할 과제라고 합니다. 

주절주절 떠들어대었는데. 결론은 '인공지능은 가능하다. 다만 그 인공지능은 모순과 역설을 포함한 불완전한 인간의 지능과 큰 차이가 없을 것이다. 지능의 발견이라는 책 추천.'입니다.    
 
 
병장 김태경 (20060609 082241)

진화론에 따르자면, 인간도 단백질의 바다에서 복잡한 화학과정이 우연히 만들어낸 인공지능이죠. 방대해진 네트의 바다에서 전자기적 인공지능이 등장하지 말라는 법이 없어요. 공각기동대의 인형사처럼 말이죠. 
유나바머의 글을 보면 이런 인간같은 지능을 가진 인공지능이 등장하지 않더라도 기계문명이 얼마나 위험할수 있는지 자세히 조목조목 설명하고 있습니다. 테러리스트의 글인만큼 동의하기 힘든 글이기는 하지만, 저로선 그의 네오 러다이트 선언에 딱히 반박할 근거가 없더군요.    
 
 
병장 정치훈 (20060609 121546)

제가 보기에는 어차피 인간도 뉴스나 외부 사람들과의 대화 등을 통해서 자신의 지식을 꾸준히 업데이트 합니다. 물론 자기 스스로가 창조해 내는 지식이 있겠지만 그 부분을 배제하고 컴퓨터에 모든 주제에 관련해서 노가다로 많은 사람들이 달라붙어서 지속적으로 업데이트를 한다면 사람들이 컴퓨터를 인간이라고 착각 하도록 만들 수 있다고 생각합니다.    
 
 
 병장 박진우 (20060609 125929)

이거이거. 
이공계 여러분들 불타오르기 시작했는걸요 으힛.    
 
 
상병 김청하 (20060610 100147)

와우, 앙상한 무플을 걱정했는데 이렇게들 이파리를 달아주시니 행복합니다. 핫핫. 

조금 짚어드리자면, 튜링 머신과 튜링 테스트의 '튜링'은 같은 사람입니다만, 그 둘은 분명히 다릅니다. 제가 본문에서 얘기하고 싶었던 것은 (일단 테스트에 임하는 대상이 튜링 머신이건 아니건 관계없이) 튜링 테스트 자체가 AI를 평가하는 데에 어느 정도의 의미를 가지는가, 하는 점이었구요. 

또한 사람들이 달라붙어 지속적으로 DB를 업데이트하는 '노가다'만으로는 세심하고 전문적인 질문자가 질문하는 튜링 테스트를 통과할 수 없다는 것이 제 생각입니다. 본문에서는 그 증거로 동음이의어나 인접한 단어를 이용한 말장난과 같은 것들이 제시되었고, 그런 것들을 노가다를 통해 이해(한다고 생각되기)하기 위해서는 사실상 모든 단어들의 링크와 관계를 설정해주어야 하는데 그것은 현실적으로 어려울 뿐더러, 그것이 가능하다고 해도 그러한 관계를 상황에 따라 어떻게 파악해내는가, 의 문제도 있다는 것이 제 생각입니다. 

그리고 최근의 두뇌 연구에서는 인간 또한 튜링 머신이 아닌가, 하는 의혹()이 꾸준히 제기되고 있습니다. 생물의 두뇌는 재귀적으로 연결되어 있고, 재귀적인 메카니즘 속에서는 간단한 구조만으로도 그 출력을 예측할 수 없는 경우가 대부분입니다. 인간의 두뇌 또한 재귀적으로 연결되어 있고, 그렇기에 예측이 거의 불가능하다는 것은 사실이지만 이 역시 결정적이고 동일한 상황에 대하여 동일한 결과를 내놓는 기계라는 것이 그들의 주장이지요. 

《지능의 발견》 도 읽어봐야 겠군요. 추천 감사드립니다.   
 
 
중위 이정민 (20060711 195835)

인공지능을 구현하는 방법은 굉장히 다양할 수 있습니다. 
사람이 DB를 직접 업데이트 하는 방식도 그 중 한가지가 될 수는 있지만, 그것이 전부는 아닙니다. 
(아니, 극히 일부분입니다.) 

인간이 스스로 학습을 하는 것처럼, 기계도 스스로 학습할 수 있습니다. 

그것은 어린 아기가 태어나 커가면서 사물을 인식하고 언어를 배우고 지식체계를 구축하는 과정과 
매우 유사합니다. 
(호기심 많은 어린아이에게 처음 보는 물건, 처음 듣는 단어에 대해서 일일히 설명해주듯, 
기계에게도 초기에는 반복적인 교육이 필요합니다. 교육의 방법은 인간을 포함한 
동물에게서와 마찬가지인 채찍과 당근 방식을 씁니다.) 

인공지능과 관련된 연구분야 중 한 부분인 패턴인식은 현재 활발하게 연구되고 있고, 실용화되고 있습니다. 

성인만큼 똑똑하지는 못해도, 유아 혹은 아이 수준의 정신연령까지는 현재도 가능합니다. 
물론 고차원적인 부분은 이해하지 못하지만, 
정신지체 상태의 어른 역시 마찬가지라는 점을 감안한다면, 현재의 수준도 이해할 수 있을 듯 합니다. 
영화에서나 일어날 법한 일이 현실에서 일어나는 것도 머지 않았습니다. 
단순한 장미빛 공상만은 아니고 확신을 가지고 있습니다. 
왜냐하면 제가 추진하고 싶은 아이템중의 하나이기 때문입니다. 

누군가 관심있는 분은 안계신가요    
 
 
상병 김청하 (20060712 101736)

저야 물론 관심있는 주제죠! 인간 수준의 인식 및 학습이 가능하다면 단순히 그 주기를 빠르게 하는 것만으로도 우린 신적인 무언가를 만날 수 있을 것입니다. 하지만 AI의 학습이라는 것은 그리 간단하지가 않습니다. 인간에 가까운 학습능력을 갖는 AI는 어떤 인간의 튜링테스트에도 무리없이 통과할 정도의 AI가 구현된 이후에도 수십에서 수백 년의 기간이 걸린 후에야 나타나지 않을까 생각합니다. (물론, 제가 나타나지 않는다는 가정 하에서죠. 으하하하.) 

실제로 인공지능 유닛의 간단한 수준의 학습은 상당 부분 구현된 상태입니다. 한 예로 ALVINN 시스템(Pomerleau.D, 1991, 1993)과 같은 경우는 별다른 입력 없이 자동차에 달린 카메라만으로도 어느 정도 학습을 해냅니다. ALVINN은 실제 운행 중에 입력된 시각형태에 반응하여 특정 운전자에 특화된 운행각도를 만들어내면서 지속적으로 훈련됩니다. 그 결과 ALVINN은 약 5분 간의 입력만으로도 도로 표식이 없는 포장도로, 지프차가 지나간 도로, 도로 표식이 있는 일반 도시의 도로, 그리고 도시간 고속도로 등의 여러 환경 다양한 차종에서 성공적인 결과를 보였다고 합니다. 고속도로 실험에서는 최대 100kmh의 속도로 120km를 운행했다고 하구요. 

학습능력은 대부분의 인간에게는 거의 '자연적으로' 주어진 능력이기 때문에 보통 AI의 구현에 있어서도 그리 어렵지 않으리라고 생각하는 경향이 있는데, 실제로 구현하는 것에는 엄청난 무리가 따릅니다. 

먼저 환경 인식에 있어 센서의 문제부터 이미 벽에 부딪힙니다. 시각 센서만 해도 건물 내부와 같은 인공적인 환경에서는 어느 정도 성공적으로 작동하고 있지만, 인간의 행동을 보고 따라한다거나, 복잡한 빛과 그림자가 얽혀있다거나, 겹치거나 합쳐진 물체의 경우엔 거의 인식하지 못하고 있지요. 

로봇이 자기 눈으로 직접 지각하지 않더라도 센서를 다닥다닥 붙인 인간의 행동을 그대로 따라하는 것은 가능하겠습니다만, 그 인간의 행동을 보고 그 행동의 '의도'라던가 하는 것은 따라하지 못하죠. 높은 곳에 있는 바나나를 위해 상자를 옮기는 로봇은 가능하겠습니다만, 그 과정에서 로봇은 인간이 잠깐 머리를 긁적인 것까지 따라해버릴 것입니다. 인간의 아기는 본능적으로 그런 행동들을 가려낼 메카니즘을 갖고 있는데 반해서 말이지요. 

뭐 이런 식으로 세계를 직접 인식하지 못하더라도 텍스트(파일)화된 책을 읽는 것만으로도 가히 혁명적인 진보라고 말할 수 있겠습니다만, 애초에 제가 보기엔 자의식 없는 독서라는 것은 불가능하다고 보는 제 입장에서는 학습능력을 통한 AI의 구현을 바라는 것은, 탑을 위부터 쌓아내리는 일이랄까, 하는 생각입니다.   
 
 
중위 이정민 (20060713 142801)

답글이 길어질 것 같아서 책마을에 답변을 올렸습니다.    
 
 
    ```