3/17/2019

"심심이" 개발자가 말하는, 챗봇을 오도하는 사람들

사이언스타임즈 2018.5


‘심심이’는 이즈메이커가 개발한 온라인 인공지능 ‘챗봇(Chatbot)’

학습을 통해 이번 경험을 다음 행동에 반영하는 인공지능 특성상,
사람들이 "집요하게"
1. 나쁜 말을 좋은 말처럼 가르치거면 유도하는 방향으로 반응하게 됨. 이것이 심심이와 MS의 테이(Tay, 2016)가 당면한 문제.
2. "공산당이 싫어요"했다가 서비스 중단된 중국 챗봇도 그런 말을 한 원리는 비슷. "반복학습"으로 그 쪽 경로의 점수를 올림.

여러 가지 조건을 붙이고 용량을 키워서 해법을 찾은 과정을 기사에서 설명하고 있음.
어쨌든 그 결과, 어쩔 수 없이 심심이 인공지능은 완전자율은 아니게 됨.
(SF같은 이야기. ^^)

가장 어려웠던 점은 늬앙스와 문맥으로 나쁜 말을 인식해 걸러내는 일. 그리고 띠어쓰기만으로 말이 달라질 수 있는데, 사람들은 국문법에 맞게 타자하지 않는다.  “AI 딥 러닝 연구는 결국 ‘최소점’을 찾아가는 과정” + 인공지능을 사용하는 인간의 의지

온라인게임 채팅창을 **투성이로 만들어 짜증난 적 있을 겁니다.
인공지능이 나오더라도, 그것이 게임보다 더한 비중을 가질 수는 없을 테니
크게 달라지진 않을 것 같다는 생각이 드네요.



기타 링크
이즈메이커
KT의 이즈메이커 심심이 강탈 => 재판 후 이즈메이커가 되찾음


인공지능을 훈련시킬 때
사람들의 악의가 시스템적으로 배제된 사례라고
생각할 만한 것이 있기는 합니다. 제 생각인데요..

바로 구글 리캡챠가 아닐까요.

하나의 선의를 가진 사람이 하나의 악의를 가진 사람보다 많다는 전제하에,
선의를 가진 사람들이 하나의 옳은 답을 내고
악의를 가진 사람들이 제각각 다른 오답을 내면,
인공지능이 학습하는 다수결 답은 선의를 가진 사람들이 만든 하나의 정답이겠죠. 암호화폐 의결처럼.

다만, 이것은 수학문제풀이나 자동차이미지와 강아지이미지를 구별하는 용도지,
가치판단이나 주의주장을 사고하는 능력에 대해서는 바로는 적용할 수 없을 것 같습니다.

댓글 없음:

댓글 쓰기

ABC



어제 한 일, 하지 않은 일이 오늘 해야 할 일을 결정한다. 미뤄둔 일은 반드시 새끼친다. - ?

훌륭한 서비스에 대한 결과로 주어지는 것이 이윤이다. - 헨리 포드

생각날 때 귀찮더라도 백업해라. 내일 웃는다. - ?

매사 최적화는 좋은 습관이다. 시간을 가장 귀중히 여기는 습관은 더 좋다. - ?

네가 지금 자면 꿈을 꿀 것이다. 그러나 네가 지금 노력하면 꿈을 이룰 것이다. - ?

마감이 되어 급하게 일하는 것은, 밤새 술마시고 시험치는 것과 같다. 최선을 다해 시험봤을 지는 몰라도, 최선을 다해 공부하지는 않았다. 사는 것도 마찬가지다. 얄팍한 머리와 요행을 믿고 임기응변하는 데 맛들인다면, 인생도 어느덧 그렇게 끝난다. - ascii

위대한 생각을 길러라. 우리는 무슨 짓을 해도 생각보다 높은 곳으로는 오르지 못한다. - B. 디즈레일리

꿈의 크기는 자신이 성취할 수 있는 한계를 뛰어넘어야 합니다. 꿈에 압도되지 않는다면 그 꿈은 크지 않은 겁니다. - 앨런 존슨 설리프