‘심심이’는 이즈메이커가 개발한 온라인 인공지능 ‘챗봇(Chatbot)’
학습을 통해 이번 경험을 다음 행동에 반영하는 인공지능 특성상,
사람들이 "집요하게"
1. 나쁜 말을 좋은 말처럼 가르치거면 유도하는 방향으로 반응하게 됨. 이것이 심심이와 MS의 테이(Tay, 2016)가 당면한 문제.
2. "공산당이 싫어요"했다가 서비스 중단된 중국 챗봇도 그런 말을 한 원리는 비슷. "반복학습"으로 그 쪽 경로의 점수를 올림.
여러 가지 조건을 붙이고 용량을 키워서 해법을 찾은 과정을 기사에서 설명하고 있음.
어쨌든 그 결과, 어쩔 수 없이 심심이 인공지능은 완전자율은 아니게 됨.
(SF같은 이야기. ^^)
가장 어려웠던 점은 늬앙스와 문맥으로 나쁜 말을 인식해 걸러내는 일. 그리고 띠어쓰기만으로 말이 달라질 수 있는데, 사람들은 국문법에 맞게 타자하지 않는다. “AI 딥 러닝 연구는 결국 ‘최소점’을 찾아가는 과정” + 인공지능을 사용하는 인간의 의지
온라인게임 채팅창을 **투성이로 만들어 짜증난 적 있을 겁니다.
인공지능이 나오더라도, 그것이 게임보다 더한 비중을 가질 수는 없을 테니
크게 달라지진 않을 것 같다는 생각이 드네요.
기타 링크
이즈메이커
KT의 이즈메이커 심심이 강탈 => 재판 후 이즈메이커가 되찾음
인공지능을 훈련시킬 때
사람들의 악의가 시스템적으로 배제된 사례라고
생각할 만한 것이 있기는 합니다. 제 생각인데요..
바로 구글 리캡챠가 아닐까요.
하나의 선의를 가진 사람이 하나의 악의를 가진 사람보다 많다는 전제하에,
선의를 가진 사람들이 하나의 옳은 답을 내고
악의를 가진 사람들이 제각각 다른 오답을 내면,
인공지능이 학습하는 다수결 답은 선의를 가진 사람들이 만든 하나의 정답이겠죠. 암호화폐 의결처럼.
다만, 이것은 수학문제풀이나 자동차이미지와 강아지이미지를 구별하는 용도지,
가치판단이나 주의주장을 사고하는 능력에 대해서는 바로는 적용할 수 없을 것 같습니다.
댓글 없음:
댓글 쓰기