기획자 본인만큼 잡다한 블로그

greentec.egloos.com

포토로그


통계 위젯 (블랙)

16
63
106032

flag counter

Flag Counter


협력의 공간 (Zones of Cooperation) AI

Coursera 에서 게임 이론을 공부하고 있다. 다음주에 인터넷으로 최종 시험을 치면 과정이 끝난다. 원래 <이기적 유전자> 등의 책을 통해서 관심 있게 보던 분야라 공부하면서도 여러 가지를 만들어보고 싶었는데, 마침 어젯밤에 시간이 나서 코드를 좀 짜다가 오늘 아침에 어젯밤의 버그를 고치며 간단한 시뮬레이션을 완성했다.

존스 홉킨스 대학의 교수이자 에이전트 모델링의 대가인 조슈아 엡스타인논문의 내용을 거의 그대로 구현하는 것을 목표로 했다.
내용은 "죄수의 딜레마" 게임을 다수의 에이전트 시뮬레이션을 통해 2D 공간에 표현한 것이다.



둘 다 협력하면 각각 1의 점수를 받고, 둘 다 배신하면 각각 0의 점수를 받지만,
한 명이 협력하고 한 명이 배신할 경우 협력자는 -1을 받고 배신자는 3의 점수를 받는다.



이 시뮬레이션에 나오는 에이전트는 두 가지의 전략 중 하나를 가진다. 협력자(Cooperator)는 항상 협력 전략을 택하고, 배반자(Defector)는 항상 배반 전략을 택한다. 각각의 상황에 대한 보상 테이블은 다음과 같다.


이때 T>R>P>S 여야 죄수의 딜레마가 성립된다.



이론에 따르면 배반자가 협력자보다 결국 1정도 높은 보상을 얻기 때문에, 배반자가 득세하고 협력자가 전멸할 것이라고 많은 사람들은 예측했다. 하지만 실제로 조슈아 엡스타인이 시뮬레이션을 해본 결과, 협력자들로 구성된 넓은 공간(Zone)이 발생하는 것을 확인할 수 있었다. 이는 협력-협력일 때의 보상인 P값을 낮춰도 어느 정도 유지가 되었다.


P=5 일 때



P=2 일 때



P=1 일 때



Wonderfl 링크


이론과 시뮬레이션의 결과는 다를 수 있다는 것을 이 시뮬레이션을 통해 다시 느꼈다.

덧글

  • 뉴런티어 2015/11/09 01:59 # 답글

    이론이 명확한 것이 아니라서 시뮬레이션으로 구체화할 때 주관적인 부분이 개입되어서 그런 것 아닐까요
  • 기획자 2015/11/09 09:29 #

    그렇군요. 그리고 생각해보면 시뮬레이션과 실제의 결과도 또 다른 것 같습니다. 시뮬레이션에서는 협력을 할 때 낮은 보상을 주는 게임에서도 협력의 공간이 생기지만, 실제 우리 삶에서는.. 뒷통수가 가득하죠. ㅠㅠ
  • okna pcv kielce star 2022/09/18 17:02 # 삭제 답글

    좋은 아이디어, 이런 글 더 많이
댓글 입력 영역

애드센스