Egloos | Log-in
YJ
YJ
Bayesian Network

 

 

 

 

 

 

 

 

Bayesian Network은 어떤 문제 영역(problem domain)을 표현하고 그 영역이 본질적으로 내포하고 있는 불확실성 하에서 추론을 수행하기 위해 사용되는 추론 도구입니다. 규칙기반 방식의 추론은 규칙들간의 논리적인 연산에 따라 추론을 하는데, 이것은 인간의 논리적인 추론 과정에 대한 모방의 시도라고 볼 수 있습니다. 그러나 실제 문제가 발생하면 그 문제 영역이 불확실성을 띠게 마련입니다. 이런 경우 인간은 어떤 식으로든 추론을 수행하여 결론을 내리는데, Bayesian network 은 인간이 불확실성 하에서의 추론을 모방하는 한 가지 방법입니다.

<![endif]>

Bayesian Network 에서는 문제 영역을 이루는 요소들간에 어떤 식으로든 인과관계를 가진다고 가정하고, 그 관계의 "강도", 또는 관계의 불확실함의 정도를 개량화 합니다. 수학에서 불확실성을 개량화 하는 방법은 바로 확률을 도입하는 것입니다. 대부분의 문제 요소들간에 일종의 인과 관계, 즉 하나는 원인이고 다른 하나는 결과라는 관계가 존재한다고 할 수 있지만, 때로는 이러한 관계를 규정짓기가 곤란한 경우가 생길 수가 있습니다. 이러한 경우에는 인과관계에서 어느 방향을 선택하더라도 Bayesian 확률 연산으로 추론을 수행해 내는 데에 큰 문제는 없습니다. Bayesian Network 의 불확실성의 개념을 수용하며, 통계적 분석과의 결합이 용이하다는 장점을 가지고 있습니다. 또한 그래프 구조 (graphical structure) 로 문제 영역을 표현하기 때문에 한 눈에 문제 상황을 파악하기 Bayesian Network 은 계속해서 연구가 활발히 진행되고 있는 분야이고 그 응용 범위는 일부만 예를 들자면 질병 진단, 고장 진단, 정보 필터링, 생산 수율 모니터링, 군사 장비 관리 등 폭 넓다고 할 수 있습니다. 앞으로 자동화된 추론이 필요한 많은 분야에서 활용될 것입니다.

by aDeuxist | 2006/03/12 16:11 | 트랙백(1) | 덧글(0)
데이터 마이닝, 걷히는 안개를 바라보면서 [1/2]

인쇄술의 보급이 지식의 양과 속도를 그 이전 시대에 비해 엄청나게 증가시켰듯이 최근 20여년의 컴퓨팅 환경의 발전은 인간이 따라잡기 힘들 정도로 엄청난 양의 지식을 빠르게 쏟아내고 있다. 이제는 단순한 사실이나 자료가 아닌 인간이 이해할 수 있는 형태의 정보와 지식이 더 중요한 시대가 된 것이다. 그리고 그 변화의 한가운데 데이터 마이닝이 있다고 해도 과언이 아니다.

 

 

심규석 (KAIST 전산학과 교수)

마이크로소프트 2001년 5월호

원문보기 : http://maso.zdnet.co.kr/20010509/specplan/article.html?id=139

 

데이터 마이닝은 여러 가지로 정의할 수 있지만 쉽게 설명하면 많은 양의 데이터에 함축적으로 들어 있는 지식이나 패턴을 찾아내는 기술이다. 데이터 마이닝은 비교적 최근에 연구가 시작되고 관련 소프트웨어가 개발되고 있는 최첨단의 전산학 분야 중 하나다. 1983년에 IBM Almaden 연구소에서 Rakesh Agrawal 박사를 중심으로 Quest 데이터 마이닝 프로젝트가 시작된 이후로 선진국의 유수 연구소와 대학원을 중심으로 활발하게 연구가 되어왔다.

 

1994년 필자가 IBM Almaden 연구소에서 Rakesh Agrawal 박사의 지도 아래 데이터 마이닝 연구를 시작할 때만 하더라도 이 새로운 분야가 정말 성공할 수 있을지, 또 사람들을 위해 정말로 유용하게 쓰일 수 있는지 확실하지 않았다. 정말로 안개가 가득한 산속에서 어디로 가야할지 모르고 헤매는 듯한 기분으로 데이터 마이닝 연구를 시작했다. 하지만 그 뒤로 IBM Almaden 연구소와 벨 연구소에서 데이터 마이닝과 관련된 여러 가지 기술을 개발했고 논문을 썼으며 또 미국 특허들을 취득하거나 신청했다. 그러는 가운데 데이터 마이닝에 관한 필자의 안목도 조금씩 넓어졌다. 뿌연 안개 속에서 헤매는 것 같았던 처음에 비하면 이제는 필자에게는 그 안개가 하나씩 걷히는 것 같은 기분이다. 이제 데이터 마이닝에 관해 좀 더 확실하게 볼 수 있게 되었으므로 독자들에게 이에 대해 소개하고 이해를 돕고자 한다.

 

데이터 마이닝, 왜 알아야 하나

 

이제는 많은 회사들이 자신의 비즈니스에 관련된 여러 가지 데이터를 모아 데이터베이스 시스템에 넣어두고 있고 이 데이터의 양은 해다마 끊임없이 증가하고 있다. 또한 인터넷과 전자상거래가 급속하게 보급되면서 소비자와 구매에 관련된 많은 양의 데이터가 자동으로 컴퓨터에 모이게 됐다. 이로 인해 과거에는 가능하지 않았던 거대한 양의 데이터를 우리 주변에서 쉽게 찾아볼 수 있는 시대가 됐다. 하지만 이렇게 모아놓은 데이터로부터 아주 유용한 정보를 찾아내 마케팅이나 회사의 이익을 효율적으로 증대하기 위해 사용하는 데는 아직도 어려움이 많다. 그 이유 중 하나는 이 정보가 아주 많은 양의 데이터 안에 함축적으로 숨어 있어 사람의 눈으로 일일이 조사하는 것이 불가능하기 때문이다. 다행히도 데이터 마이닝 분야에서 개발된 기술을 통해 이러한 데이터로부터 유용하고 값진 정보를 효과적으로 찾아내 회사뿐만 아니라 개인의 일상생활도 편리하게 도와줄 수 있게 됐다.

 

가트너 그룹(Gartner Group)은 데이터 마이닝 기술을 이용한 타겟 마케팅(target marketing)이 아직까지 일반 회사에서 5%도 안되게 쓰이고 있지만 10년 내로 80% 이상 사용될 것이라 내다보고 있다. 현재 데이터 마이닝 시장의 크기도 10억 달러를 넘었다고 보고 있다. 그렇기 때문에 미국에서는 많은 상용 데이터 마이닝 소프트웨어를 개발해 팔고 있고, 여러 분야에서 효과적으로 이용되기 시작했다. 국내에도 이미 상륙해 국내 시장을 향해 힘차게 돌진하고 있다.

 

하지만 국내에서는 아직 데이터 마이닝에 대한 이해나 노력이 별로 이뤄지지 않고 있는 실정이다. 그래서 데이터 마이닝 기술이 어떤 유용한 일을 우리에게 해줄 수 있는지도 사람들이 잘 알지 못할 뿐더러 어떤 소프트웨어를 써야 할지 모르는 경우도 많다. 이런 시점에서 부족하나마 데이터 마이닝의 본고장에서 실제 소프트웨어를 개발했던 필자의 경험을 바탕으로 기본적인 개념과 응용 분야에 관해 간단하게 설명하고, 어떤 상용 소프트웨어가 있는지 중요한 판매사(vendor)와 실제 사용된 예를 소개하고 독자들에게 자신의 일터에서 어떻게 사용할 수 있는지에 대한 기본적인 아이디어를 제공하려고 한다. 데이터 마이닝 기술 자체가 너무나 방대해 모든 것을 나열하기에는 어려운 점이 많다. 또한 데이터 마이닝 기술을 자기 회사의 이익을 위해 아주 효과적으로 사용하고 있는 회사라 하더라도 경쟁사에 정보를 제공하지 않기 위해 사용 예와 얼마나 많은 효과를 얻고 있는지에 관해 제대로 발표하지 않는 경우가 많아 그 내용을 자세히 알아내기도 무척 힘들다. 그러므로 필자는 그 동안 경험한 것을 바탕으로 알고 있는 분야나 개발된 기술을 서술하려고 한다(혹시 부족한 점이 많이 있더라도 데이터 마이닝 기술을 알리고자 하는 필자의 열정을 봐서 많은 이해를 부탁한다).

 

데이터 마이닝이란

 

앞서 설명한 것처럼 데이터 마이닝은 많은 양의 데이터에 함축적으로 들어 있는 지식이나 패턴을 찾아내는 기술이라고 정의할 수 있다. 데이터 마이닝 기술은 백화점에서 물건을 진열할 때 고객의 움직임을 줄여주기 위해 활용할 수 있고, 고객의 구매 패턴을 보고 유용한 패턴을 찾아내 소비자가 살 물건을 미리 예측하고, 쿠폰을 발행해 관심을 유발함으로써 판매를 촉진할 수도 있다. 보험 회사에서는 고객이 다른 회사로 옮기는 것을 방지하거나 고객의 위험성에 따라 보험료를 차등화해 제공하는 데 사용할 수 있다. 또 신용카드 회사에서는 훔친 신용카드를 사용하는 경우를 발견해 더 이상의 불법 사용을 막거나 새로운 고객이 신용카드를 신청할 경우에 카드 발급 결정에 사용할 수도 있다.

 

전자상거래를 위한 웹 서버인 경우에는 소비자가 방문한 웹 페이지와 구매한 물건과 소비자의 특징을 보관하고 있기 때문에 이 데이터를 분석하면 각각의 사용자에 맞는 웹 페이지를 동적으로 그때 그때 생성해주거나, 웹 페이지의 캐싱(Caching), 프리페칭(Prefetching), 스와핑(Swapping)을 효율적으로 제공할 수 있어 성능을 높이고 수행속도를 빠르게 할 수 있다. 더욱이 웹 액세스의 다차원 웹 로그 분석을 이용한 트렌드 분석을 통해 웹에서 어떤 일이 일어나고 있는지에 대해서도 대략적인 정보를 제공해줄 수 있다. 또한 모든 소비자에게 동일한 웹 페이지를 제공하는 것이 아니라 소비자의 관심에 따라 다른 웹 페이지를 동적으로 만들어 제공하는 개인화(pesonalization) 서비스를 가능하게 할 수도 있다.

 

네트워크 분야에서는 네트워크에 이상이 생기기 전에 과거의 네트워크에 관련된 데이터를 이용해 앞으로 몇 시간 안에 네트워크에 생길지도 모르는 문제를 미리 예측해낼 수도 있다. 피자헛 가게를 새로운 장소에 개점할 경우에 과거의 다른 피자헛 가게가 세워진 곳에 관련된 정보로부터 새로 세우는 장소에서 성공할지를 예측하는 데도 사용할 수 있다.

 

교차 판매(cross-selling)나 상승 판매(up -selling) 등을 통해 회사의 판매 실적을 더 높일 수도 있다. 교차 판매란 서로 다른 부류에 속하는 상품이지만 서로 연관돼 고객들이 구매하는 경우를 찾아 연관된 상품을 고객에게 추천해 판매하는 것을 뜻한다. 예를 들어 장난감을 사는 고객이 생명보험에 들 가능성이 많다면 장난감을 사는 고객에게 생명보험에 관한 정보도 제공해 보험에 가입할 수 있도록 만드는 것을 말한다. 상승 판매란 1억원의 생명보험을 가입하려는 고객에 대한 정보를 분석해보고 만일 그 고객이 2억원짜리 보험에 가입할 가능성이 많은 고객이라면 2억원의 보험에 대해 같이 소개하고 추천해 더 비싼 보험을 들도록 유도하는 것을 말한다. 이 밖에도 여러 분야에서 데이터 마이닝 기술을 유용하게 사용할 수 있다.

 

대표적인 데이터 마이닝 기술

 

현재 상용 데이터 마이닝 소프트웨어에서 제공되는 주요한 알고리즘 중에서 필자가 생각하기에 최근에 개발된 중요한 기술을 소개하자면 연관 규칙, 순차 패턴, 분류, 군집화, 아웃라이어 판별 등이 있다. 이 중에서 데이터 마이닝 알고리즘의 대표적인 예가 될 수 있는 연관 규칙과 관련된 알고리즘부터 설명하고 나머지 다른 기술들에 관해 간략하게 소개하겠다.

 

연관 규칙(Association Rules)

데이터 마이닝을 소개할 때 대표적으로 언급되는 기술로 백화점이나 슈퍼마켓에서 한 번에 함께 산 물건들에 관한 연관 규칙을 찾아내는 기술이다. 실제 데이터를 이용해 발견됐던 아주 유명한 연관 규칙 중 하나는, 미국의 대형 편의점의 소비자 구매 데이터에 이 기술을 적용한 결과, 아기 일회용 기저귀를 사는 사람은 맥주도 같이 산다는 연관 규칙을 발견한 것이다. 이러한 패턴을 발견하고 소비자들에 관해 조사해 본 결과, 보통 아기 엄마가 남편에게 기저귀를 사오라고 하면 남편이 편의점에 들러 기저귀를 사면서 같이 맥주도 사간다는 것을 발견했다. 이러한 연관 규칙이 발견됐을 경우 맥주의 판매를 늘리기 위해 일부러 기저귀 값을 할인해 더 많은 맥주가 팔리도록 할 수 있다.

 

이 기술을 사용하기 위해 가장 보편적인 입력 데이터의 각각의 원소는 슈퍼마켓에서 한 번에 사는 장바구니에 들어있는 상품들이라 할 수 있다. 이 때 장바구니 하나에 들어가는 데이터의 집합을 한 트랜잭션(tran saction)이라 한다. <표 1>에 네 개의 트랜잭션으로 구성된 구매 데이터를 테이블로 나타냈다. 첫 번째 소비자는 라면, 오렌지 쥬스, 커피라는 세 가지 물건을 샀고, 두 번째 소비자는 라면과 소시지를 함께 구매했다. 연관 규칙 기술을 적용할 때 두 가지 설정값을 입력해야 하는데 이들은 지지도(sup port)와 신뢰도(confidence)라 불린다. 어떤 규칙의 지지도가 10%라면 그 의미는 전체 트랜잭션 중에서 그 규칙을 따르고 있는 트랜잭션이 10%를 차지한다는 것을 의미한다. 예를 들어 <표 1>의 경우, ‘ → ’라는 연관 규칙은 ‘라면을 산 사람은 커피도 같이 산다’는 의미인데, 네 가지 트랜잭션 중 1번과 3번 소비자가 구매한 물건들에 들어 있는 규칙이므로 지지도는 50%가 된다. 그리고 신뢰도는 규칙의 왼쪽에 있는 것을 산 사람들 중에서 오른쪽에 있는 물건들을 모두 산 사람들의 퍼센트를 말한다. 예를 들어 앞의 규칙에서 라면을 산 사람들은 세 사람인데 그 중에서 커피를 산 사람은 두 사람이므로 이 규칙의 신뢰도는 66.7%가 된다. 연관 규칙 알고리즘을 제공하는 소프트웨어를 쓸 경우에 최소 지지도와 최소 신뢰도를 데이터와 함께 설정하면 두 조건을 만족하는 모든 연관 규칙을 다 찾아낸다. 이 때 연관 규칙에는 왼쪽과 오른쪽 모두 여러 개의 상품이 올 수 있다. 예를 들면 ‘{라면, 오렌지 쥬스} → ’라는 연관 규칙도 가능한데, 이 연관 규칙은 ‘라면과 오렌지를 사는 사람은 커피도 산다’는 뜻이다.

 

앞에서 설명한 데이터는 불린 속성(boolean attribute)을 가진 데이터다. 다시 말하면 어떤 항목을 ‘구매했다’ 또는 ‘아니다’만을 나타낸다. 하지만 더 나아가 <표 2>와 같이 관계형 데이터베이스의 테이블과 같은 형식의 데이터를 이용해 연관 규칙을 찾을 수 있는데 이것을 정량적(Quantitative) 연관 규칙이라 한다. <표 2>의 데이터는 고객들에 대한 구매 정보가 아니라 각각 고객의 신상 명세에 관한 데이터로 숫자 속성(numericat tribute)과 범주 속성(categorical attribute)이 있다. 여기서 결혼 유무를 나타내는 열이 범주 속성에 해당한다. 앞의 데이터에서 찾을 수 있는 연관 규칙의 예를 들면 ‘[나이: 30...39]와 [결혼 유무 : Yes] → [자가용수 : 2]’인데 이 규칙은 지지도가 40%, 신뢰도가 100%다. 이 규칙은 ‘30대의 결혼한 사람들은 대부분 자가용을 두 대씩 갖고 있음’을 나타낸다. 앞에서 말한 구매 데이터 외에도 이와 같이 우리 주변에서 흔히 볼 수 있는 관계형 데이터에서도 연관 규칙을 찾는 기술이 이미 개발돼 있다. 그 외에 연관 규칙 알고리즘에 관한 자세한 내용은 관련 논문을 참조하기 바라며 이 글에서는 지면 관계상 생략하기로 한다.

 

연관 규칙을 사용할 수 있는 응용 분야로는 우선 백화점이나 잡화점에서 쿠폰이나 우편으로 상품 정보를 보낼 때 소비자가 산 물건들을 보고 구매할 가능성이 높은 항목들에 대해서만 상품 정보를 제공하는 것이 있다. 또 물건을 진열할 때 같이 구매할 가능성이 높은 항목들은 같이 배열해 소비자의 동선을 줄일 수 있다. 또한 웹 페이지를 디자인할 때 고객 부류에 따른 웹 페이지나 배너를 제공할 수 있다. 또한 의사가 환자에게 불필요한 검사나 치료를 해 의료 보험을 불법으로 과다하게 청구하는지 알아내는 데도 연관 규칙 기술을 사용할 수 있다.

 

순차 패턴(Sequential Patterns)

연관 규칙은 물건을 한 번에 살 때 같이 구매한 것들을 이용해 규칙을 찾는 것인 반면, 순차 패턴 발견은 순서대로 일어난 데이터를 분석해 빈도수가 높은 순차 패턴을 찾아내는 기술을 말한다. 예를 들어 비디오테이프 대여점에서 고객의 데이터를 분석해 ‘포리스트 검프’를 빌려본 고객은 나중에 아폴로 13이나 캐스트 어웨이를 함께 빌려 본다는 패턴을 발견했다고 가정하자. 이러한 패턴 정보를 편의상 ‘({포리스트 검프}) → ({아폴로 13, 캐스트 어웨이})’로 나타내보자. 이 순차 패턴 정보에 따라 다른 고객 역시 포리스트 검프를 빌려본 사람이고 나머지 두 영화를 아직 빌려 보지 않았다면 대여점을 방문했을 때 이 두 영화를 추천해 줄 수 있다. 순차 패턴의 또 다른 예를 살펴보자. 가전제품 회사에서 고객의 구매 패턴을 조사해본 결과 ‘(, ) → ()’라는 패턴을 발견했다고 가정하자. 이 패턴의 의미는 세탁기를 먼저 사고, 그 다음에 건조기를 산 사람들은 나중에 HDTV를 사는 경우가 많다는 것이다.

 

<표 3>은 비디오 테이프 대여점의 고객 네 명의 대여 데이터다. 예를 들어, 3번 고객은 먼저 러브레터라는 영화를 대여한 후에 사월 이야기와 동감을 함께 대여했고, 그 다음에는 시월애라는 영화를 대여했다는 것을 의미한다. <표 3>에서 보면 ‘({포리스트 검프}) → ({캐스트 어웨이})’라는 패턴은 네 명 중에서 두 명이 갖고 있는 패턴이므로 지지도는 50%가 되고, 만일 최소 지지도를 50%라고 했다면 앞의 데이터에서 발견할 수 있는 순차 패턴은 ‘({포리스트 검프}) → ({캐스트 어웨이})’와 ‘({포리스트 검프}) → ({아폴로 13})’ 등이 있고 둘 다 지지도는 50%이다.

 

이 기술의 응용 사례를 살펴보자. 홈쇼핑 회사에서 소비자가 구매한 물건을 보고 다음에 살 것으로 예상되는 물건들의 쿠폰이나 카탈로그를 발송하는 데 사용할 수 있고, 학습지 회사에서는 국어 학습지를 구독하는 학생들이 그 다음에 어떤 다른 과목을 주로 더 구독하는지 알아내 판매를 촉진하는 데 사용할 수도 있다. 우편 주문이나 전자상거래 사이트에서 고객이 미래에 구매할 물건을 예측하는 데 사용할 수 있고 웹 페이지 방문자들의 액세스 로그를 분석해 웹 페이지를 고객에 따라 다른 구조를 갖게 하는 데 사용할 수도 있다. 또 병원에서 진료 받은 환자들의 진료 기록을 보고 과거의 어떤 증상이나 치료 과정(또는 결과)이 지금 현재 걸린 병을 유발하는 원인이었는지 찾아내는 데 이용할 수도 있다.

 

분류(Classification)

분류는 주어진 데이터와 각각의 데이터에 대한 클래스가 주어진 경우, 그것을 이용해 각각의 클래스를 갖는 데이터들은 어떤 특징이 있는지 분류 모델을 만들고, 새로운 데이터가 있을 때 그 데이터가 어느 클래스에 속하는지 예측하는 것을 뜻한다. 예를 들어 신용카드를 발행하는 은행의 고객 데이터에 고객의 나이, 연봉, 결혼 유무, 성별 등의 데이터와 신용 불량자인지 나타내는 클래스가 있다고 하자. 이러한 경우에 이 데이터를 결정 트리 알고리즘에 입력한다면, 신용 불량자는 나이가 23세 이하이고 연봉이 없는 사람들임을 발견한 규칙을 제공할 수 있다. 또한 미국에서는 어떤 동네든지 그 동네의 대형 슈퍼마켓에서 구매된 데이터를 사서 보면 그 동네의 아이와 젊은 여성, 노인의 비율을 대략적으로 알 수 있다고 한다. 이러한 데이터를 이용해 과거 다른 동네의 데이터와 비교해 성공했는지 실패했는지를 나타내는 클래스을 사용하면 새로운 동네에 새 슈퍼마켓을 만들려고 할 때 성공 가능성을 예측하는 데 사용할 수 있다. 또 새로운 의약품을 개발했을 때 여러 부류의 사람들, 즉 연령, 인종, 성별, 체중, 키 등이 서로 다른 사람들에게 임상 실험을 한 후, 그 약품이 효능이 좋았는지, 부작용이 있었는지를 나타내는 정보를 클래스로 만들어 입력한 후 각각의 클래스의 특징을 결정 트리 기법을 사용해 만들어 의사가 약을 처방할 때 주의 깊게 사용하도록 감독할 수 있다. 또 전자상거래 사이트에서 고객들의 구매 데이터를 보고 어떤 특징이 있는 고객이 비싼 수입 명품을 구매하는지 예측하는 데도 사용할 수 있다.

 

이러한 분류를 위해 개발된 알고리즘으로는 결정 트리 알고리즘, 베이지안 네트(Ba yesian Network), 신경망(Neural Net work) 등이 있다. 예를 들어 <표 4>와 같은 보험 회사 고객의 데이터가 있고 위험도가 클래스를 나타내는 열이라 한다면, 의사 결정 트리 알고리즘은 <그림 1>과 같은 의사 경정 트리를 만들어 준다. 이 트리를 루트 노드부터 살펴보면 나이가 30세 미만이면 위험도가 높고, 그 반대일 경우에는 소유하고 있는 자동차의 종류에 따라 사고를 낼 위험성이 달라짐을 나타낸다. 분류는 이처럼 각 부류에 속하는 데이터의 특징을 찾아 새로운 데이터의 클래스를 결과로 나타내어 주는 기술을 말한다.

 

군집화(Clustering)

군집화 기술은 전체 데이터의 분포 상태나 패턴 등을 찾아내는 데 유용하게 이용할 수 있다. 군집화란 주어진 n개의 점을 K개의 그룹으로 나누는 것을 말한다. 분류와 다른 점은 각 클래스에 해당되는 정보가 제공되지 않는다는 것이다. 연관 규칙에 관한 부분에서 언급한 예를 들어 설명하면 주어진 여러 고객의 구매 데이터를 바탕으로 그 구매 상품의 특징에 따라 고객을 여러 그룹으로 나누는 것이라 할 수 있다. 또 모든 고객의 신상 정보를 이용해 그 유사성에 따라 그룹을 나누는 데 사용할 수도 있다. 인터넷 검색엔진 회사에서는 웹 페이지의 내용에 따라 그룹을 만드는 ‘categorization’에 사용할 수 있다. 군집화에는 여러 가지 알고리즘이 개발됐는데 알고리즘에 따라 다른 군집화를 만들어 낸다. 그러므로 모든 알고리즘의 특성을 잘 알고 있어야 자기 응용 분야에 맞는 것을 잘 사용할 수 있다. 또한 숫자 형태의 데이터인가 범주 형태의 데이터인가에 따라 다른 형태의 알고리즘이 존재한다.

 

아웃라이어 판별 (Outlier discovery)

대부분의 데이터마이닝 기술은 데이터를 나타내는 패턴에 관심을 갖고 찾아내려 한다. 하지만 아웃라이어 판별 기법은 이와 반대로 대부분의 데이터와 다른 소수 또는 일부를 찾아내는 기술이다. 이 기술은 여러 유용한 곳에서 사용할 수 있다. 예를 들면 전화카드를 훔쳐서 사용할 경우 자신의 카드를 사용하는 대다수의 선의의 고객들과 당연히 사용 패턴이 다를 것이다. 또 훔친 신용카드를 쓰는 사람들의 사용 패턴은 자기 카드를 사용하는 고객과 다를 수밖에 없을 것이다. 또 회사나 백화점 같은 곳에서 일반 고객의 동선과 도둑의 동선은 다를 것이다. 또 시스템에 침입한 크래커들이 사용한 명령어(command)들은 정상적인 사용자들과 다를 것이다. 이러한 아웃라이어를 판별하는 데 여러 가지 기술이 이미 통계학 분야에서 사용됐는데, 여기서 사용되는 알고리즘들은 주로 데이터를 일정한 통계적 분포(statis tical distribution)로 가정해 모델을 설정하고 그 모델에 따라 아웃라이어를 판단하게 된다. 하지만 많은 경우에 사용자가 자신이 이용하려는 데이터의 분포를 알고 있지 않은 경우가 더 많다. 이를 위해 데이터베이스 분야에서 distance-based outlier discovery 알고리즘들이 개발돼 있다. 자세한 내용은 참고 자료를 보기 바란다.

 

데이터 마이닝 기술을 사용할 때 유의할 점

 

데이터 마이닝 기술을 성공적으로 사용하기 위해 유의해야 할 사항은 다음과 같다. 우선 값비싼 소프트웨어보다는 작업을 수행할 팀이 더욱 중요하다는 점이다. 비즈니스, 재무, 통계학, 인공지능, 데이터베이스 등에 관해 모두 잘 알고 있어야 할 뿐 아니라 각각의 데이터 마이닝 도구에서 사용된 가정이나 장단점 같은 것을 잘 알고 사용해야 한다. 그렇지 않으면 데이터 마이닝 도구에서 만들어낸 결과에 대해 잘못된 결론을 만들 수도 있기 때문이다. 또 사용할 데이터를 잘 이해하고 있어야 한다. 예를 들어 데이터에 빠져 있는 정보가 어떤 것인지 아는 것도 중요하고 외부로부터 얻을 수 있는 데이터들도 함께 사용해 분석하면 더욱 가치 있는 정보를 추출할 수 있다. 그리고 최근에 개발되어 많이 사용하지 않은 기술보다는 이미 사람들이 많이 사용하고 있고 그 성질이나 장단점이 잘 알려진 데이터 마이닝 알고리즘을 사용하는 것이 더 바람직하다. 잘 모르는 알고리즘을 사용하면 얻어진 결과에 대해 제대로 이해하거나 평가하기가 힘들기 때문이다.

 

데이터 마이닝에 관한 잘못된 인식들

 

데이터 마이닝에 관해 흔히 잘못 이해하고 있는 것이 몇 가지 있다. 보통 사람들은 데이터 마이닝은 데이터 웨어하우스를 구축해야만 가능하다고 생각한다. 하지만 데이터 마이닝은 디스크 파일로 된 데이터일지라도 가능하다. 대부분의 상용 소프트웨어는 텍스트 파일 형태의 데이터라 할지라도 입력해 사용할 수 있게 되어 있다. 또 어떤 사람들은 데이터 마이닝을 인공지능이나 통계학으로 단순하게 생각하는 경우가 있다. 하지만 데이터 마이닝에 두 분야의 지식이 도움이 되긴 하지만 인공지능이나 통계학이라고 간단하게 단정지어 말할 수 없다는 점을 강조하고 싶다(물론 데이터 마이닝에 통계학 지식이 전혀 필요 없는 것은 아니다). 데이터 마이닝 기술은 무조건 도움이 되기 때문에 아무데나 사용하라고 하는 사람들이 있지만 이것도 잘못된 생각이다. 기술을 잘 이해하지 못하면서 무조건 함부로 뛰어들 경우 실패할 확률도 높아지기 때문이다. 하지만 그렇다고 데이터 마이닝 기술이 성공적으로 사용될 수 없다고 함부로 단정짓는 것도 역시 잘못된 생각이다.

by aDeuxist | 2005/12/06 14:51 | DATA MINING | 트랙백 | 핑백(1) | 덧글(1)
데이터 마이닝, 걷히는 안개를 바라보면서 [2/2]

데이터 마이닝, 어디로 향하고 있는가

 

지금까지 짧은 역사이지만 많은 유용한 데이터 마이닝 기술과 소프트웨어가 개발됐다. 하지만 이 기술들이 우리 일상생활을 정말로 얼마나 편리하게 도와줄 수 있을지는 아직 두고 봐야 할 단계에 있다. 따라서 우리 모두가 자신의 분야에서 데이터 마이닝 기술을 효과적으로 적용하기 위해 노력할 필요가 있다.

 

한편 인터넷과 웹의 발전은 여러 가지 웹 마이닝 문제를 우리에게 새롭게 제시하고 있다. 인터넷의 많은 웹 사이트에서는 고객들이 스스로 자신의 ID를 등록하고 자신에 관한 신상명세서를 스스로 입력한다. 그리고 여러 가지 사용 기록이 자신도 모르는 사이에 자동으로 컴퓨터에 저장된다. 이러한 많은 양의 데이터는 과거에 감히 상상할 수 없었던 것이다. 웹의 데이터는 비정형 구조(semistructured)이기 때문에 이를 이용해 유용한 정보를 추출하기가 훨씬 더 어렵다. 또한 하이퍼링크(hyper-link)를 통해 여기저기에 흩어져 있는 방대한 데이터를 잘 이용해 유용한 정보를 뽑아낼 수 있도록 하는 것도 아주 중요하다. 웹에는 너무나 많은 데이터가 있지만 또 한 편으로는 쓸모없는 데이터도 많아 원하는 정보를 찾으려고 할 때 어려움이 있다. 웹에 적용할 수 있는 웹 마이닝 기술의 개발이 현재로는 시급하면서도 앞으로 가장 매력적인 데이터 마이닝의 한 분야가 될 것이다.

 

<박스1>

데이터 마이닝의 대부, Rakesh Agrawal 박사

1983년도에 University of Wisconsin at Madison에서 박사학위를 받고 벨연구소에서 1983년부터 1989년까지 Ode라는 객체지향형 데이터베이스에 관해 연구했다. 그 후 IBM Almaden 연구소에서 일했고 1993년도부터 Quest 데이터 마이닝 프로젝트를 시작하고 주도했다. 그는 데이터 마이닝이라는 분야가 개척되고 자리잡는 데 크게 기여한 인물이다. 그가 개발한 데이터 마이닝 기술로는 OLAP, 연관규칙, 순차 패턴, 분류, 군집화, 유사시 계열 시퀸스(Similar Time Sequences), 텍스트 마이닝, 데이터베이스 마이닝 통합(Database-Mining Integration) 등이 있고, IBM Intelli gent Miner라는 데이터 마이닝 소프트웨어의 개발에 주도적인 역할을 하기도 했다. 그는 데이터 마이닝 분야에서 학문적인 것 뿐만 아니라 상용 소프트웨어의 개발에 기여한 공로를 인정받아 2000년도에는 ACM SIGKDD Innovation Award를 수상했다(http://www.almaden.ibm.com/cs/people/ragrawal/bio.html 참조).

 

<박스2>

연관 규칙 알고리즘

연관 규칙을 찾아주는 알고리즘 중에서 가장 먼저 개발됐고, 또 가장 많이 쓰이는 알고리즘은 Apriori 알고리즘이다. 이 알고리즘은 두 가지 단계로 구성된다. 우선 첫 번째 단계에서는 최소 지지도 설정값에 따라 빈도수가 높은 항목의 집합들을 찾아내고 그 다음 단계에서는 이들 집합들로부터 신뢰도 설정값을 만족하는 연관 규칙을 모두 뽑아낸다. Apriori 알고리즘에서 사용하는 중요한 법칙은 빈도수가 높은 항목의 집합의 모든 부분 집합도 다 빈도수가 높다는 사실이다. 예를 들어 데이터에 {라면, 커피, 설탕}이 최소 지지도에 의해 빈도수가 높다면 당연히 {라면, 커피}만을 봐도 빈도수가 높고, {커피, 설탕}을 봐도 빈도수가 높다. 다시 말해 어떤 집합이 주어졌을 때 새로운 항목을 더해주면 지지도는 절대로 전보다 증가할 수 없다.

 

주어진 n개의 항목이 있을 때 이 항목을 이용해 만들 수 있는 모든 항목 집합은 2n개가 있다. 예를 들어 {a, b, c}의 모든 부분 집합은 {}, , , , {a, b}, {a, c}, {b, c}, {a, b, c}가 있다. 그렇기 때문에 주어진 2n개의 항목에 대해 모든 부분 집합을 만든 후에, 각각에 대해 데이터를 보고 지지도 계산을 위해 카운트하려고 하면 이 부분집합의 개수가 너무 많아 모두 메인 메모리에 넣고 카운트할 수 없게 된다. 이해를 돕기 위해 설명하면, 만일 1000개의 물건을 판매하는 잡화점에서 그 물건들을 함께 살 수 있는 모든 경우를 다 따지면 21000이 되고 이것은 너무나 큰 숫자다. 그래서 간단하게 만드는 초보적인 알고리즘은 이 기술을 실제 생활에 사용할 수 없게 만든다.

 

하지만 앞에서 말한 법칙을 사용하면 그것을 가능하게 만들어 준다. Apriori 알고리즘은 우선 사이즈 한 개의 빈도수가 높은 항목들을 먼저 구하고, 그 다음에 이것들을 이용해 사이즈가 두 개인 빈도수가 높은 항목들의 집합을 구하는 방식으로 한 사이즈씩 차례로 수행한다. 그렇기 때문에 데이터에 있는 사이즈가 가장 큰 빈도 높은 항목 집합의 크기가 k라면 대략적으로 데이터를 k번 스캔하게 된다(여기서 집합의 사이즈란 그 집합에 들어있는 원소 개수를 말한다). 사이즈가 k인 빈도 높은 항목들을 지금 막 구한 단계라고 하자. 이 때 이들을 이용해 사이즈가 k+1인 후보 항목들의 집합들을 먼저 구한다. 예를 들면 {라면, 커피}와 {라면, 설탕}이 사이즈가 2인 빈도 높은 항목들 집합에 들어 있다면 이것으로부터 {라면, 커피, 설탕}이라는 사이즈가 3인 후보 항목들의 집합이 만들어진다. 이 때 이 집합의 원소로 구성된 사이즈가 2인 모든 부분집합이 사이즈 2인 빈도 높은 항목 집합들에 다 들어있는지 체크하고 만일 하나라도 없다면 후보에서 탈락시킨다. 이런 식으로 후보들을 만든 후에는 실제 데이터를 스캔해 후보들을 카운트하고 그런 후에 지지도를 만족하는 것들만 뽑아내 사이즈가 3인 후보 항목 집합을 만들어 낸다. 그 다음에는 다시 이들을 이용해 사이즈가 4인 후보들을 만들어 내고 더 이상 후보 집합을 만들지 못할 때까지 같은 과정을 반복한다.

 

<리스트>에서 Apriori 알고리즘의 첫 번째 단계를 의사 코드(pseudo code)로 나타냈다. <리스트>에서 Fk는 원소의 수가 k인 빈도 높은 항목 집합들을 다 모아 놓은 것을 뜻하고 Ck는 원소의 수가 k인 후보 항목 집합들을 다 모아 놓은 것이다.

 

<그림>은 <리스트>의 알고리즘이 어떻게 수행되는지 나타낸 것이다. 여기서는 편의상 구매 데이터 항목을 숫자로 표시했다. 그리고 최소 지지도는 75%라고 가정했다. 우선 모든 항목들에 대해 D를 스캔하면서 지지도를 계산하고 그 중에서 75%의 최소 지지도를 만족하는 항목들을 뽑아낸다. 이들은 <그림>에서 F1로 나타냈고 , , 등이 있다. 그러면 F1을 이용해 다음 크기의 후보 항목들 집합 C2를 만든다. , , 로부터 만들어질 수 있는 모든 항목의 집합이 C2에 나타나 있다. 그러면 다시 D를 스캔해 이 후보항목 집합들의 지지도를 계산하고 최소 지지도를 만족하는 {2, 5}만 F2로 남게 된다. 이 때 F2에 하나의 원소만 있으므로 더 이상 그 다음 크기의 후보 항목 집합을 만들 수 없고 이 알고리즘은 여기서 멈추게 된다.

 

앞에서처럼 첫 번째 단계에서 얻어진 빈도 높은 모든 항목 집합으로부터 두 번째 단계에서 모든 연관 규칙을 뽑아낼 수 있다. 예를 들어 {라면, 커피, 설탕}이라는 항목 집합이 빈도수가 높다고 판명됐다면, 이것으로부터 {라면, 커피} → , {라면, 설탕} → , {커피, 설탕} → 등과 같은 연관 규칙이 만들어지고 이것들에 대해 신뢰도를 계산한 후 최소 신뢰도를 만족하는 것만 남긴다.

 

<박스3>

군집화 알고리즘

군집화 알고리즘은 크게 파티션 알고리즘(partitional algorithm)과 계층 알고리즘(hierarchical algorithm)으로 나눌 수 있다. 전자에 해당되는 알고리즘은 K개의 모든 가능한 파티션을 모두 열거해 보고 군집화가 얼마나 잘 됐는지 나타내는 척도를 나타내는 함수 값이 가장 좋은 것으로 그룹들을 정한다. 이 때 대표적으로 많이 사용하는 척도 중의 하나는 square-error criterion인데 다음과 같은 식으로 나타낼 수 있다. 이 때 Ci는 각각의 그룹을 말하며, p는 각 그룹에 속한 각각의 데이터이고 mi는 각 그룹의 점들의 평균에 해당한다. 또 ∥∥는 벡터의 크기를 말한다.

 

숫자 속성(numeric attribute) 데이터를 군집화하는 데 쓰이는 가장 오래되고 잘 알려진 파티션 알고리즘 중에 K-평균(K-means) 군집화 알고리즘이라는 것이 있다. 이 알고리즘을 사용하려면 몇 개의 그룹으로 나누기 원하는지 K를 입력해야 한다. 그러면 알고리즘은 일단 K개의 평균점을 지정하고, 모든 데이터를 하나씩 보면서 가장 가까운 평균점에 해당되는 그룹에 할당한다. 그 후에, 다시 평균점들을 조금씩 바꾸어 나가면서 데이터를 가까운 그룹에 재할당하는 과정을 군집 상태를 나타내는 척도 함수가 더 이상 변하지 않을 때까지 반복한다. 더 이상 변하지 않게 되면 그 상태의 그룹들을 군집화의 결과로 정한다.

 

계층 알고리즘에는 top-down과 bottom-up 알고리즘이 있다. 그 중에서 다음과 같은 bottom-up 알고리즘을 agglomerative hierarchical clustering 알고리즘이라 한다. 이 알고리즘에서는 우선 모든 n개의 데이터가 n개의 서로 다른 그룹이라 가정한 후에 그룹간의 유사성(similarity)을 보고 가장 유사한 두 개의 그룹을 합병(merge)해 그룹 수를 줄여가는 과정을 전제 그룹 수가 K개가 될 때까지 반복함으로써 K개의 그룹을 찾아낸다. 예를 들어 <그림>은 1차원 데이터를 이용해 군집화하는 과정을 나타낸다.

 

유사성을 나타내는 함수는 두 점간의 Euclidean 거리를 쓰기로 한다고 가정하자. <그림>을 보면 데이터 4번과 5번이 가장 거리가 가깝기 때문에 먼저 합친다. 이 합쳐진 그룹을 4’라 하자. 그 다음에는 2번과 3번 데이터가 가장 가깝기 때문에 합쳐서 2’라 부르도록 하자. 그러면 그룹은 세 개로 줄어들었다. 다시 두 개의 그룹을 합하려 할 때는 그룹 2’와 4’가 가장 가까우므로 합쳐서 한 개의 그룹으로 만든다. 이런 방식으로 남아있는 그룹의 개수가 K일 때까지 반복한다. 이 알고리즘의 장점 중 하나는 군집화를 마칠 때까지의 과정이 트리 구조를 가지고 있어 drill down하거나 drill up하면서 어느 단계에서 군집화를 멈추는 것이 가장 잘 된 군집화인지를 사용자가 모두 확인해 보고 가장 좋다고 생각되는 것을 선택할 수 있다는 것이다. 예를 들어 만일 세 가지 그룹으로 <그림>의 데이터를 나누고자 한다면 맨 왼쪽 점은 한 개의 그룹으로 혼자 남고 나머지 점들은 그 다음 왼쪽부터 둘씩 그룹을 지어주면 된다.

 

일반적으로 다차원 데이터를 군집화하기 위해 유사성을 계산할 때 여러 가지 함수를 쓸 수 있다. Euclidean 거리, Manhattan 거리 등 여러 가지가 있는데 그 중에 어떤 것을 사용해 군집화를 하느냐에 따라 다른 특성을 갖는 군집화가 이뤄진다. 자세한 내용은 참고 자료를 보기 바란다.

 

이러한 두 종류의 군집화 알고리즘은 컴퓨터 이론 분야에서 이미 잘 알려진 알고리즘인데, 수행 속도를 이론적으로 표현할 때 입력 데이터의 수를 n이라 하면 적어도 n2에 비례한다고 나타낼 수 있다. 하지만 n2에 비례할 경우에는 모든 데이터를 메인 메모리에 넣고 알고리즘을 수행해야만 실제 쓸 수 있게 된다. 다시 말해 데이터가 메인 메모리에 다 들어가지 못하면 수행 시간이 너무 길어 사용할 수 없다. 이러한 문제점을 극복하기 위해 BIRCH라는 알고리즘이 개발됐다. 데이터가 너무 많아 메인 메모리에 다 넣을 수 없을 경우 우선 데이터를 메인 메모리에 들어갈 수 있는 만큼 요약된 대표들을 뽑아내는 초기 군집화(pre-clustering)를 먼저 행한 후 그 요약된 데이터만 갖고 기존 K-평균 군집화 알고리즘이나 그 밖의 다른 메인 메모리용 알고리즘을 수행한다. 실제 데이터로 군집화를 수행하는 것이 아니라 전체 데이터의 분포 상태를 나타내는 요약된 정보를 가지고 군집화를 행한다. 따라서 이 과정이 다 끝난 후에는 원래 데이터에서 하나씩 보면서 이미 형성된 군집들의 특성을 보고 가장 가까운 그룹으로 배정한다.

 

지금까지는 주로 숫자 속성을 가진 데이터의 군집화 알고리즘을 설명했는데 백화점 고객의 구매 데이터와 같은 범주 속성(categorical attribute) 데이터에 대한 군집화 알고리즘도 여러 가지가 개발됐다. 자세한 내용은 참고 자료를 찾아보기 바란다. 대표적인 범주 속성을 위한 알고리즘으로는 ROCK 알고리즘 등이 있다.

 

<박스4>

데이터 마이닝에 관한 최신 정보는 이 곳에서

 

데이터 마이닝 분야와 관련된 최근 기술 동향을 알고 싶다면 우선 ACM SIGKDD(Special Interest Group on Knowledge Discovery in Data and Data Mining)라는 단체에 관심을 갖기 바란다. ACM은 전산학 분야에서 가장 권위 있는 단체의 하나로 각기 다른 소분야마다 그룹이 나누어져 있고, 국제 학술회의를 열거나 뉴스레터를 제공한다. ACM SIGKDD의 홈페이지 주소는 http://www.acm.org/sigkdd/이고, 매년 2회 발행되는 뉴스 레터 SIGKDD Explorations의 홈페이지 주소는

 

http://www.acm.org/sigkdd/explorations/이다. 이 곳에 가면 필자가 객원 편집자(Guest Editor)로 참여했던 최근호뿐만 아니라 과월호도 온라인으로 모두 읽어볼 수 있다. 또한 ‘Data Mining and Knowledge Discovery’라는 국제 저널도 최근에 만들어져 새로운 기술이 소개되고 있다. 그 외에도 ACM SIGMOD, VLDB, ICDE와 같은 국제 학술회의에도 데이터 마이닝에 관련된 기술이 소개되고 있고, ACM TODS, IEEE TKDE, Information Systems 등과 같은 국제 학술지에도 데이터 마이닝 관련 기술이 소개되고 있다.

 

<박스5>

 

주요 데이터 마이닝 솔루션과 공급 업체

 

IBM 인텔리전트 마이너(Intelligent Miner)

◆주요 기술 : 연관 규칙 의사 결정 트리, 신경망 회로, 군집화, 순차 패턴, 유사시 계열 시퀸스, 텍스트 마이닝

 

오라클 다윈(Darwin)

◆주요 기술 : 연관 규칙 의사 결정 트리, 신경망 회로, regression, 군집화, Bayesian learning, self-organizing maps, memory-based reasoning

 

SAS 엔터프라이즈 마이너(Enterprise Miner)

◆주요 기술 : 연관 규칙 의사 결정 트리, 신경망 회로, regression

◆장점: SAS와 뛰어난 통합 기능

◆다양한 샘플링 도구 제공: 랜덤 샘플링, stratified 샘플링, n-th observation 샘플링, first-n sampling and cluster sampling

 

SGI MineSet

◆주요 기술 : 연관 규칙 의사 결정 트리, regression, 군집화, simple Bayes, decision table, boosting, automatic feature selection, cross-validation

◆특징: SAS 파일 import/export 유틸리티 제공, 뛰어난 visualizer를 제공

 

SPSS 클레멘타인(Clementine)

◆주요 기술 : 연관 규칙 의사 결정 트리, 신경망 회로, regression, 군집화

by aDeuxist | 2005/12/06 14:50 | DATA MINING | 트랙백 | 핑백(1) | 덧글(0)
유비쿼터스ubiquitous

유비쿼터스란?

  • 라틴어로 ‘언제 어디서나 있는’을 뜻하는 말
  • 사용자가 컴퓨터나 네트워크를 의식하지 않는 상태에서 장소에 구애받지 않고 자유롭게 네트워크에 접속할 수 있는 환경을 의미
  • 98년 이 용어를 처음으로 사용한 미국 제록스 팰로앨토연구소의 마크 와이저 소장은 유비쿼터스 컴퓨팅이 메인프레임, PC에 이은 제3의 정보혁명의 물결을 이끌 것이라고 주장
  • 유비쿼터스 네트워크를 구축하기 위해서는 정보기술(IT)의 고도화가 전제돼야 한다.
    • 컨버전스 기술의 일반화, 광대역화, IT 기기의 저가격화 등 없이는 모든 기기에 통신 능력을 부여하는 것이 어렵기 때문
  • 유비쿼터스 시대가 열리게 되면 자동차, 가정, 실외 등의 다양한 공간에서의 IT 활용이 늘어나고 네트워크에 연결되는 컴퓨터 사용자의 수도 늘어나는 등 IT산업의 규모와 범위는 더욱 커지게 될 전망
    • AOL의 조사에 따르면 현재 PC 사용자의 43%는 통상적인 네트워크의 접근범위 내에 들어 있지 않은 상황이다.
  • 유비쿼터스 네트워크를 위해서는 모든 전자기기에 컴퓨팅과 통신 기능이 부가돼야 한다.
    • 이를 위해서는 각 전자기기가 고유한 주소를 가져야 하며 유선 혹은 무선을 통해 광대역 네트워크에 접속될 수 있어야 한다.
    • 이같은 문제는 최근 관심을 끌고 있는 IPv6기술이나 홈네트워크기술 등이 해결해줄 것으로 기대된다.
    • IPv6는 인터넷의 주소 부족을 타개하기 위해 만들어진 새로운 인터넷 주소체계로 32비트의 주소체계로 이뤄진 현재의 인터넷은 주소 고갈의 상황에 직면했다. IPv6는 기존 주소 체계의 4배인 128비트로 주소를 구성하기 때문에 주소의 숫자가 사실상 무한대에 가깝기 때문에 지구상의 모든 기기에 독립적인 주소를 부여할 수 있도록 해준다.
  • 세계 유수의 IT 업체들이 시장 주도권 장악을 위해 세워 놓은 복안
    • 마쓰시타는 홈네트워크의 구성을 통한 가정내 유비쿼터스 구축에 주력하고 있으며 히타치는 유비쿼터스의 관건이 정보보호라고 보고 시큐리티 기술 분야에 집중하고 있다.
    • 소니는 각 기기간의 호환성 구축을 통한 자유로운 정보교환의 측면에서 관심을 보이고 있으며
    • MS는 가정용 정보단말기인 ‘미라’라는 컨셉트를 들고 나와 유비쿼터스 컴퓨팅의 가능성을 타진하고 있다.
  • 집 밖에서 손에 찬 시계를 이용해 인터넷에 접속해 날씨를 알아보고 집안에 있는 난방기의 온도를 원격으로 조절한다. 이같은 일은 더 이상 공상과학 영화에서나 접할 수 있는 환상이 아니다.
  • 반도체와 이를 내장한 전자기기의 성능은 하루가 다르게 향상되는 반면 가격은 급격히 떨어지고 있는 데다 무선 인터넷의 보급도 활성화되는 등 유비쿼터스 컴퓨팅 구현을 위한 환경이 점차 갖춰지고 있는 것이다.
  • 유비쿼터스는 단순히 컴퓨팅 환경을 개선하는 것에만 그치는 것이 아니라 인류의 사회 문화까지 송두리째 바꿔놓을 것으로 예상된다.
  • 일본의 트론(TRON) 프로젝트를 주도해 세계의 주목을 받은 바 있는 도쿄대 사카무라 켄 교수는 저서 ‘유비쿼터스 컴퓨팅 혁명’을 통해 ‘선진국의 경우 저성장 사회로의 이행이 가속화되고 있는데 유비쿼터스 컴퓨팅은 지속적 성장이 가능한 순환형 시스템의 정착을 가능하게 해줄 것’이라고 전망하고 있다.
  • 유비쿼터스 환경하에서는 정보습득과 활용이 최적화돼 소모성 자원의 효율적인 사용이 가능해진다는 것
    • 일례로 지능형 도로와 지능형 자동차간의 효율적인 정보교환이 이뤄지면 가솔린의 낭비를 최소화할 수 있을 것으로 기대
    • 이밖에도 최적의 냉난방 및 조명 시스템 가동, 기능형 쓰레기통 등을 이용한 자원 재활용 및 폐기물의 최소화, 낭비적인 노동의 감소로 인한 경제활동의 효율성 제고 등을 예로 들 수 있다.
  • 사카무라 교수는 또 유비쿼터스 컴퓨팅이 대량 생산의 획일적인 ‘하드와이어드’ 사회를 개개인의 다양성에 적절하게 대응할 수 있는 ‘프로그래머블’ 사회로 탈바꿈시켜줄 것이라고
    • 예를들면 각 개인이 자신의 신체조건에 관한 정보를 담은 휴대기기나 ID카드를 소지하면 컴퓨터가 이를 인지해 최적의 정보와 환경을 제공하기 때문에 노약자, 장애인, 환자 등 신체적 약자들도 큰 불편 없이 사회생활을 영위할 수 있게 된다는 것이다.
  • 투자와 연구
  • 미국 등에 비해 IT분야에서 한발 늦은 일본은 정부차원에서 유비쿼터스를 역전의 지렛대로 활용한다는 복안을 세우고 있어 주목받고 있다.
    • 미국의 경우도 AT&T, IBM, 마이크로소프트, 인텔, 액센추어, 제록스, 휴렛패커드 등 유수의 IT기업과 MIT 미디어렙 등과 같은 대학연구소들이 유비쿼터스 컴퓨팅기술 개발에 적극 나서고 있다.
  • 일본 총무성은 지난해 6월 민간과 대학, 정부 관련부처 전문가 등으로 구성된 유비쿼터스 네트워크 포럼을 발족시킨 데 이어 11월에는 올해 예산에 유비쿼터스 기반 기술 확보를 위한 예산을 포함시켰다. 총무성이 예산을 요청한 분야는 100억개의 단말기를 연결할 수 있는 초소형 칩 네트워킹 프로젝트, 비접촉식 IC카드에 부착하면 어떤 PC나 단말기도 자신 개인용으로 사용할 수 있도록 해주는 ‘무엇이든지 내 단말기 프로젝트’, 건물내외 어디에서든 네트워크에 연결되는 ‘어디서든 네트워킹 프로젝트’ 등 3가지로 일본 정부는 오는 2005년까지 관련 요소기술을 확보한다는 목표다.
    • 소니, 샤프, NEC, 히타치, NTT, NTT도코모 등 업체별 독자 프로젝트를 추진되고 있다.
    • 일본 총무성내 ‘유비쿼터스 네트워크기술의 장래전망에 관한 조사연구회’가 예측한 유비쿼터스 시장 규모는 파급효과를 포함해 오는 2005년까지 무려 30조3000억엔(약 303조원)에 달한다. 분야별로는 네트워크 10조5000억엔, 전자상거래 7조3000억엔, 서비스 6조2000억엔, 단말기 5조5000엔, 플랫폼 8000억엔 등이다. 특히 연구회는 2010년에는 규모가 배 이상으로 늘어나 84조3000억엔(약 843조원)에 이를 것으로 전망했으며 분야별로는 전자상거래 34조4000억엔, 서비스 24조2000억엔, 네트워크 14조9000억엔, 단말기 7조8000억엔, 플랫폼 3조엔 등이다.
  • 업계에서는 유비쿼터스 시대를 앞서가기 위해서는 기술 개발 이외에도 ITU 활동 등 표준화를 위한 정부차원의 적극적인 지원과 미국·유럽·아시아 각국 등과 연구개발 및 국제화 표준분야의 연계 등이 필요한 것으로 지적하고 있다.
  • 유비쿼터스 컴퓨팅 사회의 실현을 위해서는 네트워크의 안정성이 우선적으로 확보돼야 하는 것으로 지적되고 있는데 인터넷 상용화 이후 크래킹, 바이러스 등 사이버 범죄가 확산되고 있다는 점이 걸림돌이다. 실제 미국의 경우 사이버 범죄 대응에 들어가는 경비가 연간 250억달러에 달하는 것으로 추산된다.

유비쿼터스 시대 

  • 유비쿼터스 시대의 개막은 생각보다 가깝게 다가왔다.
  • SPOT(Smart Personal Object Technology)
    • 세계 최대의 소프트웨어 업체인 마이크로소프트(MS)의 빌 게이츠 회장은 지난 11월 열린 컴덱스 기조 연설에서 ‘SPOT(Smart Personal Object Technology)’를 새로운 화두로 제시했다. SPOT의 스마트 오브젝트는 인터넷 기능을 구현해 언제, 어디서나 온라인에 손쉽게 접속할 수 있도록 해주는 알람시계, 부엌용 전자기기, 스테레오 장비 등과 같은 소형 전자기기. 즉 유비쿼터스를 다르게 표현한 것으로 전세계 IT산업에 가장 큰 영향력을 행사하는 인물 중 하나인 게이츠가 유비쿼터스 시대의 본격적인 개막을 선언한 셈.
    • MS측은 SPOT가 구현된 제품이 내년초부터 시장에 본격적으로 등장할 것이라면서 MS가 기본 소프트웨어를 제공하고 또 현재보다 에너지 효율이 뛰어난 프로세서와 각종 유무선 네트워킹 기술들이 스마트 오브젝트에 탑재될 것이라고 밝혔다. 실제 내셔널세미컨덕터의 회장겸 CEO인 브라이언 할라도 같은 행사 기조연설에서 “향후 수년내 대다수의 사람들이 반도체가 들어간 수백에서 수천개의 전자기기를 소유하게 될 것”이라며 현재 개발중인 SPOT 기반 반도체를 소개했다. 그는 당시 “사실상 생각할 수 있는 모든 기기에 거의 돈을 들이지 않고 이 칩을 내장할 수 있을 것”이라고 강조
    • SPOT는 수년전 IT 업체들 사이에 큰 관심을 모았으나 호응을 받지 못하고 사라진 인터넷 접속 단말기인 ‘인터넷 어플라이언스’와 유사한 개념이다. 99년 컴덱스에서 MS는 ‘MSN 웹 컴패니언’이라는 인터넷 서핑이 가능한 인터넷 어플라이언스를 공개했고 이어 컴팩컴퓨터를 비롯한 여러 PC 업체들이 이 기기를 들고 나왔지만 몇 개월만에 시장에서 사라지고 말았다.
    • 업계에서는 SPOT의 경우 인터넷 어플라이언스가 주목을 받던 당시와는 시장 환경이 다른 상황에서 나온 것이어서 성공 가능성이 높은 것으로 분석하고 있다. PDA 등의 모바일 정보기기와 지능형 휴대폰, 디지털음악 분야의 발전 등이 시장 개화에 도움을 줄 것이라는 것이다. 더구나 와이파이 무선 네트워크 시장의 급격히 성장하고 있으며 TV나 스테레오 등을 생산하는 가전 업체들이 USB포트와 PC카드를 제품에 내장하기 시작했다는 점도 좋은 징후로 여겨지고 있다.
    • 업계 전문가들은 MS가 비록 ‘스마트 오브젝트’ 프로그램을 이끄는 주요 세력이지만 이 제품의 제조와 제품 디자인 그리고 브랜드 작업 등은 하드웨어 업체들에 맡겨 세력확산에 나설 것이라고 전망 
by aDeuxist | 2005/12/03 20:25 | Ubiquitous | 트랙백 | 덧글(0)
[정보기술] 각국의 유비쿼터스 컴퓨팅 개념 비교
유비쿼터스 컴퓨팅(Ubiquitous Computing)을 정의하기에는 오늘날의 기술과 정보통신 환경이 너무 빨리 그리고 많이 달라지고 있다. 유비쿼터스 컴퓨팅에 대해서 대부분의 사람들은 그 개념에 대해서 불확실해하거나 모호하다고 여긴다. 유비쿼터스 컴퓨팅을 문자적 의미로 직역을 하면 ‘편재하는 컴퓨터의 파워’로 해석할 수 있다. 이런 단순한 번역으로는 유비쿼터스 컴퓨팅이 의미하는 다양한 그리고 깊은 뜻을 제대로 전할 수 없을 것 같다. 가끔 영어는 역순으로 번역하는 것이 우리들 정서에 부합하는 경우가 자주 있는데, 유비쿼터스 컴퓨팅도 역순으로 해석을 하면, ‘컴퓨팅의 편재’로 해석할 수 있다. 즉, 어딘가에 컴퓨터 파워가 차 있다는 의미이다. 한편, ‘유비쿼터스’의 좀 더 분명한 의미는 모든 곳에 존재한다는 뜻이다. 그래서 앞의 ‘어딘가’는 컴퓨터가 존재할 수 있는 모든 곳으로 이해해도 무방하다.

IT기술의 성숙과 성장동인의 이동
오늘날의 과학기술로 컴퓨터의 파워를 존재하게 할 수 있는 곳은 크게 나누어 보면 전자공간(Cyber Space)과 실세계(Real World)이다. 따라서 유비쿼터스 컴퓨팅은 전자공간상에서의 가상 컴퓨팅(메일서버, 웹서버, 데이터베이스서버 등과 같은 인터넷 기반 서버의 이용)과 실세계의 리얼 컴퓨팅(마이크로 컴퓨터, 휴대단말, 센서, MEMS(Micro Electro Mechanical Systems) 등과 같은 인터넷.비인터넷 클라이언트의 이용)으로 구성되는 것으로 해석할 수 있다. 컴퓨팅 파워를 구성하는 두 공간의 구조를 살펴보면 유선.무선.근거리무선을 매개로 하는 통신상에 유선 기반의 서버 컴퓨팅, 유선.무선.근거리무선 기반의 클라이언트 컴퓨팅이 존재하고 있다. 오늘날, 전자공간의 가상 컴퓨팅은 일반화되어 있으나, 실생활 공간상의 리얼 컴퓨팅은 초보 단계라고 볼 수 있다.



(그림 1) IT 기술의 진화 방향과 서비스 고도화 개요


한편, IT환경이 유선.무선.유무선통합.근거리무선통신 그리고 서버.PC.PostPC.센서.MEMS.초소형 컴퓨팅 객체로 전개됨에 따라 전자공간과 실세계는 사실상 서로 통합 혹은 융합이 되고 있다. 모든 객체가 하나되는 글로벌화(표준화, 인터넷화)가 진행되는 동시에 모든 객체가 특화되는 개인화(다양화, 전자적 사물화)라는 서로 상반된 두가지 기술 진화의 방향이 실세계와 전자공간에서 조화된 세차례의 파동을 일으키면서 하나되고 있다(그림 1참조). 즉, 서버기술과 유선통신기술 영역은 이음매없는 망통합(첫째 파장)으로 진화되고 있으며, 클라이언트와 포스트PC기술과 무선 및 유.무선통합망기술은 초고속, 대용량의 멀티미디어 데이터에 대한 브로드밴드접속 서비스(둘째 파장)를 제공하고 있으며, 내장 초소형 컴퓨팅 객체와 MEMS, 센서기술 및 근거리 무선 통신기술은 자율형 컴퓨팅 환경(셋째 파장)을 제공하는 방향으로 진화하고 있다. 셋째 파장의 특성은 내장 초소형 컴퓨팅 객체와 MEMS, 센서기술 및 근거리 무선 통신기술에서 찾을 수 있는 동시에 세계 각국의 주요 유비쿼터스 컴퓨팅 프로젝트의 특성을 통하여서도 확인할 수 있을 것으로 판단된다.
한편, 이러한 IT 기술 진화 파장의 성숙에 따라, 성숙된 IT 인프라를 기반으로 하는 IT.서비스의 융합, IT.NT의 융합, IT.BT의 융합 등으로 기술진화 성장동인이 이동하고 있다.

대륙별 유비쿼터스 컴퓨팅 개념의 비교
(그림 1)에 나타낸 IT의 특성인 통합과 다양화가 발생하는 제 3의 파동인 자율형 컴퓨팅 환경의 특성을 <표 1>을 통하여 유비쿼터스 컴퓨팅 프로젝트들로부터 추정하여 보면, MS사의 이지리빙 프로젝트에서는 이동 컴퓨팅과 지능적 환경으로 정의하고 있으며, 유럽 공동체(EU)의 ‘사라지는 컴퓨팅 계획(Disappearing Computing Initiative)’의 Smart-Its는 무선통신 기반 네트워킹 기능을 가진 지능형 객체로 정의하고 있다. 마찬가지로 대부분의 유비쿼터스 컴퓨팅 프로젝트들은 이음매없는(seamless) 네트워킹.이동성.자율형 객체를 특성으로 한다. 이 특성들은 사용자의 물리적 환경을 통하여 리얼 컴퓨팅 서비스를 제공하는 것으로 파악된다.

<표 1> 유비쿼터스 4대 핵심기술 기반 주요 유비쿼터스 컴퓨팅 5대 프로젝트의 공통 특성


일본, 미국, 유럽은 각국의 차별화된 여건과 각국이 보유한 핵심기술 영역의 차이로 세계 각국이 추구하는 유비쿼터스 컴퓨팅 개념은 서로 차별화되어 전개되고 있다. 일본의 유비쿼터스 컴퓨팅 연구의 근원은 1984년 동경대에서 시작된 ‘트론 프로젝트’를 시작으로 2005년에 완료될 일본 정부의 3대 ‘u-네트워크 프로젝트’에 이르기까지 어디서나 연결(Anywhere Connection)을 추구하고 있다. 미국의 경우는 1988년 제록스사에서 시작한 ‘유비쿼터스 컴퓨팅 프로젝트’에서 제시된 장소 중심의 한사람에 대한 리얼 컴퓨팅에 대한 구현을 MS사의 ‘이지리빙 프로젝트’나 HP사의 ‘쿨타운 프로젝트’ 등이 개발하고 있는 동시에 많은 산..연 프로젝트들이 이동성과 더불어 장소를 중심으로 하는 자율형 객체(Smart object)를 통한 리얼 컴퓨팅을 추구하고 있다. 유럽의 경우는 하노버대학과 VTT대학이 수행한 ‘유비캠퍼스 프로젝트‘와 2001년에 시작된 ‘사라지는 컴퓨터 계획’을 통하여 이동성을 중시하는 초소형 자율형 객체와 그룹을 중심으로 하는 자율형 협업(Intelligent Cooperation) 인프라를 통한 리얼 컴퓨팅의 연구를 추구하고 있다. 이와 같이, 유비쿼터스 컴퓨팅에 대한 핵심적 이슈는 Smart object, Intelligent Cooperation, Anywhere Connection이 핵심으로 파악된다.
따라서, 지능을 가진 컴퓨팅 객체가 자율적으로 자신의 업무를 수행하는 것을 기본으로 하는 ‘ubiquitous computing’, ‘disappearing computer’, ‘ubiquitous networking’의 공통점은 물리적 환경을 통하여 사용자에게 서로 특화된 영역의 선택에 대한 집중적 기술개발과 표준화 선점을 통하여 차별화된 컴퓨팅 서비스를 제공하는 것이다.

<표 2> 미국, 유럽, 일본의 유비쿼터스 컴퓨팅 개념 비교


명령하지 않아도 컴퓨팅 서비스를 받는 세상, Just Its
예를 들어, 한국이 근거리무선통신, 센서, MEMS, 초소형 내장형 컴퓨팅 객체를 중심으로 하는 자율형 컴퓨팅 환경에서 세계 각국의 유비쿼터스 컴퓨팅과 차별화되는 영역인 가전을 선택하여 유비쿼터스 정보가전 프로젝트를 추진한다고 가정을 한다면 근거리무선통신에 의한 자기조직화 기능을 가진 네트워크 콘텐츠 소비용 분산 정보가전 기술 개발을 집중적으로 수행하여 이 영역에서만의 독자적인 기술확보와 표준화 선점을 이룩해야 할 것이다(<표 2> 참조). 한편, 아직은 구체적인 한국적 유비쿼터스 컴퓨팅에 대한 개념이 제시되어 있지 않은 상태로 판단되나 국내의 주요 대형 프로젝트들이 지향하는 바를 필자의 주관적 분석을 통하여 정리하여 보면, (그림 1)과 같이 ①이음매없는 망통합을 통한 ②브로드밴드 접속 서비스와 ③자율형 컴퓨팅 환경의 구축이 현재 한국에서도 진행되어야 할 IT의 진화 방향으로 파악된다. 그리하여 이 땅에서도 자율형 컴퓨팅 환경의 기술이슈인 지능형 자율공간(Smart Space - Just here), 지능형 자율객체(Smart Object - Just this device)를 통하여 보다 나은 인간적 활동이 가능한 스마트 라이프(Smart Life - Just me)가 실현되어 ‘사람이 명령하지 않아도 컴퓨팅 객체의 서비스(Just Its의 세계)’를 받을 수 있게 될 것으로 믿는다(http://tvc2.etri.re.kr/~postnology/, http://www.seri.org/forum/ubicom/ 참조).

김완석 (ETRI 정보화기술연구소 벤처기술평가센터 기술평가팀 , wskim@etri.re.kr)
by aDeuxist | 2005/12/03 20:23 | Ubiquitous | 트랙백 | 덧글(0)
유비쿼터스의 정의 및 향후 기술전망

유비쿼터스의 정의

유비쿼터스(Ubiquitous)란 라틴어로 '편재하다(보편적으로 존재하다)'라는 의미이다. 모든 곳에 존재하는 네트워크라는 것은 지금처럼 책상 위 PC의 네트워크화뿐만 아니라 휴대전화, TV, 게임기, 휴대용 단말기, 카 네비게이터, 센서 등 PC가 아닌 모든 비 PC 기기가 네트워크화되어 언제, 어디서나, 누구나 대용량의 통신망을 사용할 수 있고, 저요금으로 커뮤니케이션 할 수 있는 것을 가리킨다.

1998년 유비쿼터스란 용어를 처음으로 사용한 미국 제록스 팰로앨토연구소의 마크 와이저(Mark Weiser) 소장은 유비쿼터스 컴퓨팅이 메인프레임, PC에 이은 제3의 정보혁명의 물결을 이끌 것이라고 주장하였다.

일본의 트론(TRON) 프로젝트를 주도해 세계의 주목을 받은 바 있는 도쿄대 사카무라 켄 교수는 저서 '유비쿼터스 컴퓨팅 혁명'을 통해 '선진국의 경우 저성장 사회로의 이행이 가속화되고 있는데 유비쿼터스 컴퓨팅은 지속적 성장이 가능한 순환형 시스템의 정착을 가능하게 해줄 것'이라고 전망하고 있다. 그는 저서에서 유비쿼터스 환경하에서는 정보습득과 활용이 최적화돼 소모성 자원의 효율적인 사용이 가능해질 것이며, 유비쿼터스 컴퓨팅이 대량 생산의 획일적인 '하드와이어드' 사회를 개개인의 다양성에 적절하게 대응할 수 있는 '프로그래머블' 사회로 탈바꿈시켜줄 것으로 전망하였다.

세계 최대의 소프트웨어 업체인 마이크로소프트(MS)의 빌 게이츠 회장은 컴덱스 기조 연설에서 'SPOT(Smart Personal *** Technology)'를 새로운 화두로 제시했다. SPOT의 스마트 오브젝트는 인터넷 기능을 구현해 언제, 어디서나 온라인에 손쉽게 접속할 수 있도록 해주는 알람시계, 부엌용 전자기기, 스테레오 장비 등과 같은 소형 전자기기. 즉 유비쿼터스를 다르게 표현한 것으로 전세계 IT산업에 가장 큰 영향력을 행사하는 인물 중 하나인 게이츠가 유비쿼터스 시대의 본격적인 개막을 선언하였다.

이처럼 유비쿼터스는 최근 전세계적으로 최대 화두로 다뤄지고 있으며, 유비쿼터스의 실현으로 실세계의 각종 사물들과 물리적 환경 전반 즉, 물리공간에 걸쳐 컴퓨터들이 편재되게 하되 사용자에게는 겉모습이 드러나지 않도록 환경 내에 효과적으로 심어지고 통합되는 새로운 정보통신 환경의 구축이 예상된다.


향후 기술전망

유비쿼터스 컴퓨팅 혹은 네트워킹 기술이 초래하는 일종의 IT 혁명은 조용하게 추진되는 혁명일지는 모르나 그것이 가져올 파급효과는 엄청날 것으로 예측되고 있다. 유비쿼터스 컴퓨팅 혁명은 새로운 지식정보국가 건설과 자국의 정보산업 경쟁력 강화를 위한 핵심 패러다임이라는 인식 하에 미국, 일본, 유럽의 정부뿐만 아니라 이들 국가들의 기업과 주요 연구소들이 유비쿼터스 관련 기술을 앞 다투어 개발하고 있다.

미국은 자국의 정보산업 경쟁력 유지를 위해서 1991년부터 유비쿼터스 컴퓨팅 실현을 위한 연구개발을 추진해 왔으며, 그러한 계획의 일환으로 국방부 산하 고등연구계획국과 국가표준기술원(NIST)의 정보기술응용국(ITAO)이 연구자금을 지원하고 있다. 또한, 정부기관과 대기업의 자금 지원으로 MIT, CMU 등의 주요대학과 HP, MS, IBM 등의 민간기업 연구소에서 다양한 프로젝트를 수행하고 있다. 미국은 주로 유비쿼터스 컴퓨팅 기술과 조기 응용 개발에 중점을 두고 있으며, 특히 일상생활 공간과 컴퓨터간의 자연스러운 통합이 가능한 HCI(Human Computer Interaction) 기술과 표준 개발을 핵심요소로 인식하고 있다.

일본은 자국이 국제 경쟁력을 확보하고 있는 광, 모바일, 센서, 초소형 기계장치, 가전, 부품, 재료, 정밀가공 기술 등을 연계시켜 조기에 유비쿼터스 네트워크를 구현하여 세계 최첨단 IT 국가를 실현하고, 최근에 약해지고 있는 자국의 국가 경쟁력을 강화하기 위한 야심찬 계획을 추진 중이다. 일본의 전략은 미국의 강점 분야인 컴퓨터, 소프트웨어 등의 핵심기술도 중요하지만, 마이크로 센서기술을 이용한 사람과 사물간의 통신 그리고 그와 관련된 주변기술도 중요하다고 인식하고 있다. 유비쿼터스 네트워크 조사연구회에서 전망하듯이 일본은 유비쿼터스 네트워크 사회의 실현이 새로운 산업 및 비즈니스 시장의 창출과, 편리하고 풍요로운 라이프 스타일의 실현, 그리고 일본이 직면하고 있는 고령화 문제, 교통 혼잡, 지진, 환경 관리 등을 해결하는데 기여할 수 있다는 것이다.

미국과 일본은 유비쿼터스 컴퓨팅 기술개발 방향과 전략에서 약간의 차이를 보이고 있다. 미국은 기술적 비전 제시와 필요한 부문에서의 조기 응용을 강조하는 반면에, 일본은 국가차원의 정책적 추진에 비중을 두고 있다. 이는 미·일 양국간의 유비쿼터스 컴퓨팅 추진에 대한 시각차와 기술력의 차이에서 비롯된 것으로 보여진다.

또한, 미국은 최첨단 컴퓨터와 소프트웨어 기술력을 토대로 바이오기술과 나노기술의 응용을 통해 정보통신 기술을 새로운 차원으로 발전시켜 유비쿼터스 컴퓨팅을 구현하려 하고 있다. 이는 미국의 컴퓨터와 소프트웨어 기술력에 대한 자신감 그리고 전통적인 실용주의가 그대로 반영된 결과라고 생각한다. 반면, 일본은 자국이 보유한 기술력과 자원을 네트워크화 함으로써 유비쿼터스 컴퓨팅을 조기에 확산시키는 전략을 수립하고 있다.

한편, 유럽은 유럽 공동체가 중심이 되어 2001년에 시작된 정보화사회기술계획의 일환으로 미래기술계획에서 자금을 지원하는'사라지는 컴퓨팅 계획'을 중심으로 주변의 일상 사물에 센서·구동기·프로세서 등을 내장시켜 사물 고유의 기능 외에 정보처리 및 정보교환 기능이 증진된 정보 인공물을 개발하여 새로운 가능성과 가치를 창출하고, 궁극적으로는 인간의 일상 활동을 지원 및 향상시킬 수 있는 환경을 구축하는 것을 목표로 한다. 유럽은 이러한 프로젝트의 수행과정에서 유비쿼터스 컴퓨팅 혁명에 대한 대응전략을 모색하고 있다.

미국·일본·유럽의 유비쿼터스 컴퓨팅 추진 전략의 공통적 메시지를 살펴보면 다음과 같다.

- 추진 주체는 실질적으로 미국을 비롯하여 각국 정부가 주도하고 있음
- 차세대 정보통신기술의 개발 대상은 일상생활을 중심으로 하는 장치 혹은 환경임
- 주요 추진 목표는 미래 기술 체제로의 진입 시도

즉, 각 국 정부는 미래 기술의 실용화에 대한 공격적인 연구개발 및 실험을 통하여 유비쿼터스 컴퓨팅 기술의 조기 일상 생활화를 추진하고 있으며, 컴퓨팅의 생활화를 통하여 새로운 거대 IT 시장의 출현을 준비하고 있다.

by aDeuxist | 2005/12/03 20:19 | Ubiquitous | 트랙백 | 덧글(0)
[교재] Artificial Intelligence: A Modern Approach
http://aima.cs.berkeley.edu/


Artificial Intelligence: A Modern Approach

Artificial Intelligence: A Modern Approach

(Second Edition) by Stuart Russell and Peter Norvig

The leading textbook in Artificial Intelligence.
Used in over 900 universities in 89 countries (over 90% market share).
The 85th most cited publication on Citeseer. more about the cover

What's New

  • 29 Aug 2005: Index for Java code updated (yesterday's was not correct).
  • 28 Aug 2005: Java code featuring Java 1.5 (by Ravi Mohan). For those not familiar with Java 1.5, it allows parameterized types, such as List<BayesNetNode> and iteration over collections with the syntax for (BayesNetNode parent : parents) {...}.

Comments and Discussion

AI Resources on the Web

Online Code Repository

For the Instructor

Getting the Book

Table of Contents (Full Version)

     Preface (html); chapter map
Part I Artificial Intelligence
  1 Introduction
  2 Intelligent Agents
Part II Problem Solving
  3 Solving Problems by Searching
  4 Informed Search and Exploration
  5 Constraint Satisfaction Problems (pdf)
  6 Adversarial Search
Part III Knowledge and Reasoning
  7 Logical Agents (pdf)
  8 First-Order Logic
  9 Inference in First-Order Logic
 10 Knowledge Representation
Part IV Planning
 11 Planning (pdf)
 12 Planning and Acting in the Real World
Part V Uncertain Knowledge and Reasoning
 13 Uncertainty
 14 Probabilistic Reasoning
 15 Probabilistic Reasoning Over Time
 16 Making Simple Decisions
 17 Making Complex Decisions
Part VI Learning
 18 Learning from Observations
 19 Knowledge in Learning
 20 Statistical Learning Methods (pdf)
 21 Reinforcement Learning
Part VII Communicating, Perceiving, and Acting
 22 Communication
 23 Probabilistic Language Processing
 24 Perception
 25 Robotics
Part VIII Conclusions
 26 Philosophical Foundations
 27 AI: Present and Future
 Bibliography (pdf and counts)
 Index (html or pdf)

Sample chapters are provided for your information. Copyright © 2002 Prentice Hall. All rights reserved. No part of this material may be duplicated or reproduced, in any form or by any means, without permission in writing from the Publisher.

AI: A Modern Approach by Stuart Russell and Peter Norvig Modified: Nov 22, 2005

by aDeuxist | 2005/12/03 20:17 | 인공지능 | 트랙백(1) | 덧글(0)
협업 필터링(Collaborative Filtering)

협업 필터링은 사용자가 자발적으로 제공한 정보를 사용하여 사용자를 비슷한 선호도를 가진 집단으로 나누어 그 집단 내에서 서로에게 추천하는 방식을 사용한다.

이러한 그룹 형성의 과정과 교차추천(Cross-recommendation)의 과정은 자동으로 이루어지게 되고 사용자가 처음 사용하는 경우라 하더라도 충분한 자료가 축적되어 있을 경우 사용자에게 즉시 서비스가 가능하기 때문에 웹 사용자들의 즉각적인 성향을 만족시켜줄 수 있는 방법이다. 또한 본질적으로 사용자의 개인정보를 공개하지 않아도 서비스 제공이 가능하기 때문에 최근의 개인정보 보호를 우선시하는 익명 개인화(Anonymous Personalization) 추세에도 잘 맞는 방법이다.

① K-Means Clustring

② 피어슨의 유사도 / 선호도

by aDeuxist | 2005/12/01 14:12 | DATA MINING | 트랙백(1) | 덧글(0)
아시모 http://world.honda.com/ASIMO/

<< previous  1 / 10    next >>

 

by aDeuxist | 2005/11/29 19:10 | ROBOT | 트랙백(1) | 덧글(1)
지능 로봇의 구성 요소

지능 로봇의 구성 요소 : 액추에이터, 센서, 지능의 세 부분

엑추에이터, 센서 : http://www.imaso.co.kr/?doc=bbs/gnuboard.php&bo_table=article&wr_id=623&sselect=wr_subject&stext=로봇&soperator=1&srch_rows=10&srch_comment=1&srch_days=0

-------------------------------

 

3장 기계 지능
앞서 로봇을 언급할 때 ‘지능형 로봇’이라는 표현의 명확한 정의를 내리지 않은 채 계속 사용했다. 로봇이면 로봇이지, 지능형 로봇은 무엇일까? 로봇에게 있어서 지능이란 무엇일까? 이 질문에 대한 답은 아직까지 누구도 명쾌한 결론을 내리지 못하고 있다. 또한 지능형 로봇이라고 소개되는 로봇들도 따지고 보면 진정한 의미에서의 지능이라기보다 지능적인 요소를 가지고 있는 방법(예를 들면 인공 신경회로망이나 퍼지, 유전자 알고리즘)을 사용한 경우가 많다. 이러한 방법들은 이전에 본지에서도 다룬 기사가 많이 있고, 추후에도 다룰 기회가 많을 것이라 생각된다. 따라서 이번 원고에서는 지능적 요소를 구현하는 방법보다는 ‘과연 지능이라는 것이 무엇일까?’라는 점에 초점을 맞추어 진행하고자 한다.
인간의 경우 지능 지수(Intelligent Quotient)라는 구체적으로 수치화된 척도가 있어 개개인의 지능 정도를 어느 정도 평가하는 기준으로 통용되고 있다. 인간의 경우 지능이라는 것이 어떻게 정의되고 측정되는지를 알아봄으로써 로봇의 지능에 대한 정의를 간접적으로 이해할 수 있을 것이다. 이 장에서는 지능형 로봇에 국한되지 않고 지능형 기계로 개념을 확장하여 기계의 지능이란 무엇이며, 어떻게 구현할 수 있는가에 대해 살펴본다.

지능의 정의가 무엇인가?
‘지능’이라는 단어에 대한 정의가 사실상 인간에게도 아직까지 모호한 단계이며, 인간의 지능 지수 측정 방법 또한 통일된 것이 아니라 여러 가지 방법론이 제시되고 있는 실정이다. 학습 지진아들을 판별하기 위해 프랑스의 Algred Binet은 새로운 테스트 방법을 개발했는데, 이것이 지능 측정의 효시로 알려져 있다. Binet은 반복되는 단어, 숫자들의 나열, 추론 문제 등을 통해 아이들이 학습을 통해 사회에서 적응할 수 있는 능력을 가지고 있는지 판별하려는 시도를 했다. Binet 이전의 시대에는 지능이란 기계적인 처리 과정으로 간주됐었다(당시에는 ‘인간의 마음은 마치 기계와 같다’라는 생각이 지배적이었던 것 같다). 즉 육체적인 반응의 속도 측정, 감각이나 영상에 대한 측정, 청각과 시각의 예민함 정도의 측정 결과가 바로 지능이라고 생각했다. Binet 이후 수많은 심리학자, 인지과학 연구자들은 지능의 모델과 측정 방법에 대해 많은 연구를 하였다.
현재 사용하고 있는 지능 지수 측정 방법은 지능의 모델에 기반해 이를 테스트할 수 있는 여러 가지 문제를 풀도록 한 후 샘플을 다수 채취해서 정규 분포의 형태로 모델을 한다. 이 때 정규분포의 평균값은 100, 표준 편차는 15로 잡는다. 이는 대부분의 자연 현상들은 ‘normal curve’의 분포 형태를 가지므로 수학적으로 표준 편차의 개념을 이용하여 지능 지수의 분포를 정규 분포로 모델링할 수 있기 때문이다. 정규 분포에서 개인의 지능을 한 점으로 지정하는 방식은 1960년대 이후 많은 지능 측정 방법론들이 사용하고 있는 방법이다.
이러한 측정 방법은 지능 모델에 따라 그 수치가 달라질 수 있으며, 어떤 지능 모델이 인간의 지능을 잘 표현해 준다고 모든 학자들의 동의를 받은 것은 없으며, 따라서 지능을 측정하는 방법론도 연구자들에 따라 다양한 방법들이 존재한다. 이와 같이 인간 지능의 정의 자체가 모호한 상태이기 때문에 기계의 지능 또한 절대적으로 동의할 수 있는 정의가 내려져 있지 않다.

기계 지능 연구자들의 관점
기계 지능을 연구하는 연구자들의 관점을 정리해 보는 것도 기계 지능의 연구 동향을 파악하는 데 도움이 될 것이다. 현재까지 연구된 기계 지능에 대한 관점을 정리해 보면 다음과 같이 두 부류로 정리할 수 있다.

◆ 존재론적 관점을 가지고 있는 연구자들(Ontologists’ Position : X-View)
‘기계 지능이란 무엇인가?’라는 질문에서 출발하여 지능을 이루고 있는 요소, 구조, 모델 등을 파악하는 데 주력하고 있다. 따라서 지능을 측정하는 방법도 각 요소별로 어느 정도 지적인가를 판별하여 그 수치를 통합하는 방법을 채택한다. 심리학, 언어학, 인지과학의 분야에서 접근하는 방법이다. 구체적인 수치가 제시된다는 장점이 있지만 수치화하기 위해 사용되는 모델의 검증이 어렵다는 단점이 있다.
◆ 현상론적 관점을 가지고 있는 연구자들(Phenomenologist Position : H-View)
인간이 전형적인 지능 제어기라는 관점에서 인간과 유사한 성능을 낼 수 있으면 그 기계는 지능적인 기계라고 결론을 내리는 방법이다. 인공 지능 분야에서 많이 회자되는 튜링 테스트(turing test)가 바로 현상론적 관점에서 접근한 방법의 대표적인 예가 될 것이다. 기계의 내부에 지능이 어떻게 구현되어 있는지, 어떤 요소가 있는지에 대해서는 고려하지 않고 단지 입력에 대한 출력(결과)이 기계인지 사람인지 판별하기 어려울 정도로 결과를 내준다면 그 기계는 지능적 기계로 평가한다. 이 방법은 기존의 지능에 대한 모델을 만들고, 그 모델에서 지능적 요소를 판별하려고 했던 존재론적 관점의 접근 방법이 가질 수 있는 많은 논란을 불식시킬 수 있지만 구체적으로 ‘어느 정도나 지능적인가?’라는 질문에 대한 적절한 해결책을 찾기 어렵다.

기계 지능의 논의 쟁점
기기의 지능이란 절대적인 수치인가?
1970년대 컴퓨터 입출력용 터미널(terminal)에 마이크로 프로세서를 내장하여 전처리 기능을 부여한 시스템이 등장했는데, 이 터미널을 이전의 이러한 기능이 없던 기기와 차별화를 위해 지능형 단말기(intelligent terminal)라고 부르고, 기존의 단순 입출력용 단말기는 바보 단말기(dumb terminal)라고 불렀다. 하지만 시간이 흘러 기존의 바보 단말기는 모두 사라지고 대부분의 단말기가 전처리 기능을 가지게 되면서 지능형 단말기에서 자연스럽게 ‘지능형’이라는 수식어가 사용되지 않고 있다. 이는 ‘지능’이라는 개념이 상대적인 개념이지 절대적인 개념이 아니라는 사실을 잘 보여준다.

기능의 향상이 항상 지능의 향상으로 이어지지는 않는다!
이 항목은 지능을 구현하는 연구자들 사이에서 끊임없이 논란을 일으키고 있는 부분이다. ‘지능형 기계란 무엇인가?’라는 질문에 대해 ‘이런저런 기능이 있는 기계’라고 대답하기가 쉽다. 그렇다면 많은 기능을 가지고 있는 기기는 지능이 좋은 것인가? 이 질문에 대한 답부터 이야기하자면 꼭 그렇지는 않다는 것이다.
비디오 플레이어를 예로 들어 보자. 80년대 중반부터 다양한 기능들이 가전제품에 추가되기 시작하면서 제조업체들 사이에서 제품의 리모콘에 단추 늘리기 경쟁이 벌어졌다. 소비자들이 기계의 기능과 성능을 비교해 구매를 결정하는 분위기에서 리모콘에 단추 하나를 추가하면 매출액이 그만큼 증가한다는 논리에 의해 가전 제조업체들은 꾸준히 기능을 첨가하고 리모콘의 단추를 증가시켜 나갔다. 하지만 이와 같은 접근 방법은 사용자들에게 외면당하기 시작했다. 비디오 플레이어의 경우 기능이 많아서 다양한 녹화 방법을 사용자에게 제공하지만 사용자는 예약 녹화를 하기 위해 많은 단추에서 어떤 것을 선택해야 하는지 혼란에 빠졌으며, 녹화를 하기 위해서는 매뉴얼을 보는 데 많은 시간을 투자해 시행착오로 익혀야만 했다. 그나마 이것도 기계에 어느 정도 능숙한 사람들이나 가능하지 그렇지 못한 사람들은 그 많은 기능들은 그저 전시 효과에 불과한 ‘그림의 떡’이 되고 말았다.
이러한 비디오 플레이어를 일반 사용자는 지능이 높다고 생각하겠는가? 오히려 기계에 대한 불평만 늘어나게 될 것이다. 따라서 최근에는 리모콘을 단순하게 제작할 뿐만 아니라 여러 가지 기능은 가능하면 간편하게 사용할 수 있도록 제작하는 추세이다. 이는 기계에 단순히 기능을 추가했다고 해서 곧바로 기계의 지능과는 연결되지 않는다는 점을 시사한다. 지능형 기계라면 많은 기능이 있어야 할 뿐만 아니라 그러한 기능을 잘 표현할 수 있는 방법, 즉 인간-기계 상호 작용(man-machine interaction)이 잘 구성되어 있어야 한다. 사용자는 이러한 인간-기계 상호 작용에서 가능하면 적은 노력으로 원하는 바를 이루고 싶어 한다. 이는 기계를 이용해 어떤 목적을 달성하고자 할 때 ‘얼마나 사용자의 노력을 필요로 하지 않고 되는가(degree of automation)’가 기계의 지능을 나타내는 데 필요하다는 점을 간접적으로 나타내 준다. 이 부분은 기계의 인터페이스 구성과도 밀접한 관계가 있다. 이러한 관점에서 인간의 간섭 없이도 잘 동작하는 기계는 지능이 높을 것이라는 추측은 쉽게 할 수 있다.

학습 능력이 기계 지능에서 어떤 위치를 차지하는가?
학습 능력의 유무가 기계가 지능형이냐 아니냐를 판별하는 데 중요한 역할을 담당하는가? 이 질문에 답을 하기 위해 다음과 같은 두 종류의 기계를 가정해 보자. 첫 번째 기계는 학습 능력이 있어 어떤 환경에 놓여지면 시간이 흐름에 따라 외부 입력에 대한 학습을 통해 최고는 아니지만 최적에 가까운 결과를 내놓는 기계이다. 두 번째 기계는 학습에 대한 기능은 전혀 없지만 고려할 수 있는 외부 환경의 변화에 따른 출력 결과를 모두 look-up 테이블 형식으로 가지고 있어 최적의 결과를 출력할 수 있는 기계이다.
두 번째 기계의 경우 외부 환경이 변한다 하더라도 look-up 테이블에서 최적의 해를 찾아 출력하기 때문에 학습에 시간이 소요되지 않는다. 반면 첫 번째 기계는 학습 능력이 좋다고 하더라도 어느 정도 시간이 소요되는 것은 피할 수 없다. 이 두 기계의 지능은 과연 어느 쪽이 좋은 것인가? 결과만 놓고 비교한다면 두 번째 기계가 더 좋은 기계라 판단되는데, 그렇다면 두 번째 기계가 첫 번째 기계보다 더 지능적인 기계인가?
우리가 지능을 이야기할 때 언급되는 ‘학습 능력’은 일반적으로 ‘예측 불가능한 상황에 대한 대처 능력’을 일컫는다. 만일 기계가 놓일 환경에서 발생할 사건이 모두 예측 가능하다면 그 기계는 학습이 필요 없을 것이며, 이 때는 미리 모든 상황에 대해 대처할 수 있는 내용을 기계에 프로그래밍하는 것이 가능하다. 이러한 환경에서는 지능형 기계란 의미가 없다. 모든 상황이 예측 가능하고 사전에 프로그래밍할 수 있다면 기계는 상황에 따라 프로그래밍된 결과를 단순히 출력만 하면 된다.
하지만 앞서 설명한 바와 같이 앞으로 로봇이 활동을 해야 할 공간은 어떠한 사건이 발생할지 알 수 없는 예측 불가능한 동적인 환경을 염두에 두고 있다. 따라서 미리 프로그램된 상황에 대해서만 대처 능력이 있는 기계라면 예측할 수 없는 상황에 대해서는 적절한 해답을 주지 못하므로 당연히 예측 불가능한 상황에 대처 가능한 기계보다 비효율적이 될 것이다. 따라서 앞의 예처럼 기계가 놓이게 될 환경을 예측 가능한 환경(stationary environment)으로 가정하는 것은 기계 지능에서는 아무런 의미가 없다. 역으로 예측 불가능한 환경(dynamic environment)에서는 학습 능력의 존재 유무는 기계 지능에서 매우 중요한 위치를 차지함을 알 수 있다.
결론적으로 지능형 기계라면 어떤 행동이나 작업의 목적을 염두에 두고 사용자의 개입을 가능한 배제하면서 스스로 생각·인식·판단·행동하는 기계라고 할 수 있으며, 동시대의 다른 기계에 비해 이러한 성능이 우수한 기계를 일컫는 것이라고 할 수 있다.

기계 지능 연구 분야
기계 지능을 연구하는 분야는 지속적으로 확대돼 가고 있지만 크게 인식(recognition), 추론(inference), 학습(learning)으로 나눌 수 있다. 보고 듣는 능력인 인식에는 음성 인식, 문자 인식, 물체 인식 등이 포함된다. 단순히 대상을 인식하는데 그치지 않고 그 의미를 알 수 있다면 ‘이해(understanding)’라고 표현한다. 예를 들어 로봇에게 음성으로 “앞으로 가” 라고 명령을 내렸을 때 음성 인식을 통해 단순히 로봇 스크린에 인식 결과를 문자로 출력하는 경우라면 이는 인식에 속하지만, 실제로 로봇이 앞으로 이동하기 시작했다면 이는 음성 이해(speech understanding)인 것이다.
추론은 주어진 테스트 데이터들로부터 어떠한 결론을 얻는 일이다. 전산학의 인공 지능 분야에서 구현하는 전문가 시스템(expert system)이 대표적인 추론 엔진 중 하나이다. 학습이란 주어진 테스트 데이터들로부터 어떠한 사실이나 규칙을 알아내는 것이다. 인공신경망으로 문자 인식을 하기 위해 알파벳 데이터를 인가하면 알파벳 데이터 패턴 사이에서 규칙을 추출하여 학습에 사용되지 않았던 데이터를 제시하여도 학습된 규칙에 의거하여 가장 가까운 알파벳을 출력으로 내놓는다.

지능형 로봇을 만들기 위해서는?
필자는 최근 TV나 각종 언론 매체를 통해 지능형 로봇에 대한 기사가 많이 증가했음을 피부로 느끼고 있다. 그만큼 사회에서도 관심을 가지고 있고 많은 연구가 진행되고 있다는 뜻일 것이다. 하지만 일반인들이 해당 기사를 보고 나서 인터넷 게시판에 쓴 비평 일색의 글들을 읽어보면 일반인의 관점에서 지능형 로봇은 아직까지 요원한 것처럼 보인다. 로봇 제작자나 전문가의 입장에서는 ‘이 정도’면 지능형 로봇이라고 주장하고 싶겠지만 보통의 사람들이 보기에는 ‘아직도 지능이 있다고 하기에는 부족한’ 로봇이라는 것이다. 이러한 시각차를 줄이기 위해서는 지속적인 연구를 통해 지능형 로봇의 지능 수준을 높이고, 사용자에게 더욱 친숙한 인터페이스를 적용해 누구라도 쓰기 편한 로봇을 만드는 데 주력해야 할 것이다.

인간-로봇 상호 작용 기술
인간-로봇 상호 작용 기술(Human-robot interaction technology)은 인간이 로봇에게 명령을 내리거나 로봇으로부터 인간이 정보를 전달받기 위해 명령을 전달하는 각종 입력 기구와 로봇이 작업하는 환경의 여러 가지 정보를 인간에게 전달시키는 기술로 정의될 수 있다. 로봇에 명령을 전달하는 방법은 현재 인간이 직접 햅틱(Haptic) 도구 등과 같은 입력 기구를 구동하는 방법이 가장 널리 사용되고 있으며, 앞으로 더욱 진보된 방법으로 로봇이 인간의 의도를 스스로 인식하여 이 정보에 따라 인간의 의도대로 명령을 수행하는 감성명령 기술이 개발될 것이다. 이러한 기술은 사용자 입장에서는 ‘지능적인 로봇’으로 느끼게끔 하는 데 지대한 영향을 끼친다. 따라서 로봇과 사용자 사이의 인터페이스를 더 효율적이고 사용자 중심의 편의성을 고려하여 설계하는 것이 지능형 로봇을 만드는 방법이기도 하다.
또한 로봇이 작업하는 외부 환경의 정보를 인간에게 전달하는 방법으로 현재 가장 널리 사용되고 있는 것은 각종 센서를 이용한 피드백 방법이 있는데, 이 중에서 시각의 전시 기술이 가장 중요한 기능이다. 향후에는 더 지능화된 방법으로 인간이 더욱 쉽게 정보를 습득할 수 있게 하는 로봇의 감성 재현 기술이 등장할 것으로 예상된다.
전반적으로 현재의 인간-로봇 상호 작용 기술은 10년 전 PC 주변기기 인터페이스 기술 수준 정도이다. 이는 여러 분야에서 개발된 로봇이 활발히 사용되고 있지 않은 가장 큰 원인이기도 하다. 다만 최근의 가상현실(VR)이나 햅틱 기술 등은 급속히 발전하고 있으며, 응용 분야도 모든 로봇으로 확대되고 있어 창의적인 인간-로봇 상호 작용 기술로 활용되고 있다. 따라서 로봇에 대한 문외한도 쉽게 사용할 수 있게 하는 기술이 개발되어야 하며, 이를 위해서는 더 진보된 인터페이스 기술과 VR 기술의 개발이 필요하다. 현재까지 인간-로봇 상호 작용 분야에서 가장 활발히 연구되고 있는 햅틱 기술이 초기에는 주로 극한 환경용 로봇에 적용되어 왔으나 최근 들어 각종 서비스 로봇으로 적용 범위가 확대되고 있는 점은 고무적이다.

미래는 ‘지능형 로봇’의 시대
지능형 로봇을 구성하기 위해서는 기계, 전기, 전자, 전산 기술뿐만 아니라 재료, 화학, 의학, 심리학 등의 학문적인 성과가 뒷받침되어야 한다. 자연 자원이 부족한 우리나라의 경우 세계 무대에서 일류 국가로 거듭나기 위해서는 결국 독자적인 과학기술을 앞세워 수출에 힘쓰는 수밖에 없다. 정부 기관을 포함한 많은 단체에서 반도체와 이동통신이 90년대 우리나라 수출의 일등공신이었다면 다음 시기에는 지능형 로봇이 될 것이라고 예측하고 있다. 아무쪼록 이번 로봇에 관한 특집 기사가 기존 IT 산업에 종사하고 있던 엔지니어들에게 로봇에 대한 관심을 불러일으키는 데 일조하길 바라는 마음에 부족한 지식이지만 ‘지능 로봇의 구성 요소’에 대해 정리해 보았다. 짧은 시간에 쫓겨 집필된 원고로는 로봇에 관한 깊은 내용을 접하기란 어려운 일이다. 좀더 심화된 내용이 필요한 독자들은 참고문헌을 참조하기 바란다.

정리 | 전만환 | mhjun@korea.cnet.com

by aDeuxist | 2005/11/29 18:10 | ROBOT | 트랙백 | 덧글(0)
◀ 이전 페이지 다음 페이지 ▶

카테고리
전체
ROBOT
Ubiquitous
Ubibot
DATA MINING
인공지능
Agent
미분류
이전블로그
more...
이글루링크
최근 등록된 덧글
담아갈게요~
by 안녕하세요 at 08/08
감사합니다!^^ 많은 도움이 되..
by kgreb at 06/11
잘 보고 갑니다 자료 블로그로 퍼..
by 김문종 at 02/07
그림 1 알고리즘 수행과정에서 트..
by 김현욱 at 09/28
잘 보고 갑니다. 좋은 정보 감사..
by 허경 at 08/17
좋은 정보 감사합니다.
by 한현구 at 09/01
오웃! 로봇과 마이닝!! ㅋㅋ 근데 ..
by 남쉐이 at 12/01
rss

skin by jiinny
X