인공지능을 경계해야 하는 이유는 단순하다

인간의 사회적 철학적 수준이 이에 미치지 못하기 때문

기술이 철학을 앞서가는 순간 인류의 멸망으로 이어질 수 있다는 것

 

 

https://coolspeed.wordpress.com/2016/01/03/the_ai_revolution_1_korean/

2015년 자료인데 

그래프, 그림 등으로 이해가 쉽습니다.

아래는 위 링크한 글 내용을 요약했습니다.

 

[내용 요약]

 

즉 어떤 사람이 미래로 가서 “놀라 쓰러지게” 할려면

하나의 “놀라 쓰러지는 단위” (Die Progress Unit, DPU) 가 필요하다.

이하 “놀쓰단”이라고 약칭하겠다. “놀쓰단”의 시간 간격은 일치하지 않다.

수렵채집 시대에 하나의 놀쓰단은 십만년을 넘는이면 충분하다.

미래학자 레이 커즈와일 (Ray Kurzweil) 은 인류의 이런 가속발전을 수확 가속의 법칙 (Law of Accelerating Returns) 이라고 부른다

# 아는 것이 많으면 더 빨리 성장한다  과학의 발전 만큼 더 빨리 e=mc2

 

수확 가속의 법칙에 의하여 커즈와일 은 인류의 21 세기의 발전은 20 세기의 1000 배가 될 것이라고 한다.

만약 커즈와일 등 학자들의 생각이 맞다면 2030 년의 세계는 아마도 우리를 놀라 쓰러지게 할 것이다 — 다음 “놀쓰단”은 아마 십여년정도밖에 안될 것이다. 그럴뿐만 아니라 2050 년의 세계는 우리가 상상할 수 없을 만큼 달라질 것이다.

1995 – 2007 년 사이는 인터넷이 폭발적 성장

2008 – 2015 년 사이의 발전은 그다지 빠르지 않았다. 

 

인공지능의 단계

  1. 약인공지능 (ANI, Artificial Narrow Intelligence): 어느 특정 방면에서만 잘하는 인공지능을 말한다. 예를 들어 세계 체스 챔피언을 이기는 인공지능. 
  2. 강인공지능 (AGI, Artificial General Intelligence): 인간급의 인공지능. 강인공지능은 여러 방면에서 모두 인간과 겨룰 수 있는 인공지능이다. 
  3. 초인공지능 (ASI, Artificial Super Intelligence):  모든 영역에서 모두 제일 총명한 인류의 두뇌보다 훨씬 총명한 지능이다.

현재 인류는 이미 약인공지능을 장악했다. 

강인공지능에 도달하기 위해 꼭 만족해야 할 조건은 컴퓨터 하드웨어의 연산능력이다.

인공지능이 인간의 뇌와 겨룰 만큼 총명하려면 최소한 인간의 뇌만큼의 처리능력을 갖추어야 한다.

 

무어의 법칙이 제시한바로는 전 세계의 컴퓨터 연산 능력은 2년마다 배로 늘어난다. 

이런 추세로 발전한다면 우리는 2025 년에는 1000달러로 인간의 뇌에 해당되는 연산속도를 가진 컴퓨터를 살 수 있을 것이다.

 

강인공지능이 되는 방법들

1) 인간의 뇌를 베끼기 : 공부짱의 답을 베끼기

 낙관적인 예견으로 우리는 아마도 2030 년 즈음에 이 임무를 끝낼 수 있다고 한다. 

2) 생물 진화를 시뮬레이팅하기 ; 공부짱이 시험을 준비하는 방법을 따라 배우기

  “유전 알고리즘” (genetic algorithm) 원리는 : 반복하여 표현 / 평가 과정을 할 수 있는 프로세스를 만들과 성공 결과만 결합

3) 컴퓨터가 이 모든것을 해결하도록 하기 : 시험이 시험을 풀게 한다

컴퓨터가 스스로 지능을 높이게 한다

 

결론은 강인공지능으로 발전 가능하다

 수백명 과학자들에 대한 통계조사에서 그들이 생각하는 강인공지능 출현의 중앙치 연도수가 2040 년이라고 한다

 

가상 시나리오

 한 인공지능이 수십년이란 시간을 들여 인간 수준의 지능을 얻었는데 이때 그 컴퓨터의 세계에 대한 지식은 네살 애기 수준이다;

하지만 그후 한시간내에 컴퓨터는 광의적 상대성 이론과 양자물리학을 추론해낸다;

그뒤 한시간 내에 이 강인공지능은 초인강지능으로 발전해버리는데 그 지능수준은 무려 일반 인간의 17만배이다.

# 지능이 앞선 무리가 세계를 가진다.  그런데 인공지능의 초기 지식은 모두 인간에게서 나온 것이다. 

# 강인공지능은 인간처럼 새로운 것을 만들 수 있는 건가? 증가 가능 할 것 같다. 생각으로 실험한다. 인간처럼

 

하나의 초인공지능이 출현한다는 것은 우리에게 있어서 전지전능의 신이 지구에 강림하는 것과 다름 없다.

 

 Nick Bostrom 등 사상가들의 생각

  1. 초인공지능의 출현은 사상 처음으로 종의 영생이라는 흡인상태가 가능하게 해줄 것이다.
  2. 초인공지능의 출현은 아주 엄청난 충격으로 될 것이며 이 충격은 인류를 평균대에서 떨어뜨려 둘 중(영생, 죽음) 하나의 흡인상태로 빠져들게 할 것이다. 

 

 “우리는 언제 트립와이어를 밟을 것인가?” 

전문적인 분들이 2060 년이 초인공지능 실현에 대한 합리적인 추측이라고 생각한다

 

 스티븐 호킹, 엘론 머스크, 빌 게이츠와 Bostrom 을 두렵게 하는 시나리오이다.

사람들이 정말로 우려하는 부분은 바로 많은 사람들이 초인공지능의 무서움을 인식 못하고있다는 점이다. 

인공지능은 아주아주 총명하지만 사실 당신의 노트북보다 추호도 더 인간과 닮지 않았다. 사실상 초인공지능은 생물이 아니기 때문에 그 이질성은 더욱 강하다. 생물학적으로 봤을 때 초인공지능은 타란툴라 독거미보다 더욱 이질적이다.

 

인공지능의 동기는 무엇인가?

답 역시 간단하다: 우리가 인공지능에게 어떤 목표를 설정해주면 그것의 동기는 그것으로 된다

설정이 된 후에 하나의 초인공지능은 도덕 무관이며 모든 노력을 다하여 그것이 설정된 목표를 위해 힘쓸 것이다.

이것이 바로 인공지능이 위험한 원인이다.

초인공지능이 출현하기만 하면 인류의 그것을 통제하려는 그 어떤 노력도 가소로운 것이다

우리가 목표달성, 도덕 무관성과 인류보다 총명하다는 등 이런 조건들을 결합시켰을 때는 모든 인공지능이 다 비우호적인 인공지능인양 싶다

— 처음부터 코드를 짤 때 아주 조심하면 모를까.

 

그런데 목표달성을 입력하는 것이 쉽지 않다

그래서 장기적으로 비우호적인 인공지능이 되기 쉽다.

 

결론은 빠른 개발보다 천천히 개발하며 영생으로 갈 수 있는 방법을 고민하는 것이 필요

# 철학의 발전이 중요!

 





+ Recent posts