관리 메뉴

PC Geek's

머신러닝은 결론에 이르게 된 과정을 설명하지 못한다? 본문

기술과 유행/인공지능-2

머신러닝은 결론에 이르게 된 과정을 설명하지 못한다?

제가 이 분야를 몰라서 잘못 읽었는지 모르겠습니다만, 흥미로운 기사를 하나 보았습니다. 그래서 정리해봅니다.


[아전인수 해석 부르는 의료 AI] 게임·퀴즈대회에선 난공불락인데…
IBM 왓슨, 의사와 진단 일치율 들쑥날쑥
획기적인 치료법이 악수일 수도

이코노미스트 1503호 2019.10.7


"10~20%의 의사를 제외하면 ‘닥터 알고리즘’이 의사를 대체할 수 있다" 2012년 비노드 코슬라, 테크크런치 기고문. AI는 기계라서 가지는 장점(의사와 비교해 무한한 학습, 무한한 기억, 완성품의 복제 가능성)으로 주목받았고 IBM의 왓슨이 등장했지만 지금 "AI가 의사를 대신할 수 있는가?"하면 "아직은."


“바둑은 게임이지만 AI를 의료·보건 분야에 적용하려면 아주 엄격한 시험 과정을 거쳐야 한다, 알파고를 의료 분야에 적용하기엔 아직 큰 격차가 있다” (데미스 하사비스 구글 딥마인드 대표, 2016)


뭐가 다른가?


2011년 퀴즈쇼를 평정한 다음 의료자문, 법률자문, 로봇상담사 등 산업방면에 응용되기 시작한 왓슨은 하향식(Top-Down Method) 인공지능. 그 중 아주 잘 활용 중인 분야도 있지만 "의사를 대신할 수 있느냐'는 면에서만 보면, 국내외 유명 병원들이 왓슨을 들여놨지만 그 열기는 그렇게 오래 가지 못했다고 함. (여기에 대해서는 지난 몇 년 간 많은 기사가 나와서, "IBM 왓슨"이라고 검색어만 넣어도 귀찮아짐)


어떤 환자의 진료데이터를 두고 의사가 왓슨에게 조언을 구하고 왓슨의 제안이 의사의 판단과 같은지 보면(현재로서는 의사의 판단이 옳다고 전제하고 왓슨의 판단을 점수매기는 수밖에 없음), 왓슨 포 옹콜로지는 8할 정도 적중. 하지만 암에 따라 편차가 무지 커서 폐암은 의사 판단과 2할도 일치하지 않음. 가천대 병원의 경우 대장암 73%, 위암 49%.  즉, 왓슨 혼자서 조언하게 두면 막나가게 됨.


그 외 왓슨은 (이건 사람도 그렇지만) 미국 메모리얼슬로언케터링암센터(MSKCC)에서 시험해 개발되어서 현지화가 덜 돼 아시아계 환자에겐 오류가 늘 가능성이 있고 한국에서 쓰지 않거나 건보비적용인 의약품을 추천하기도 했다고 함.



그럼 알파고와 같은 딥러닝 방식 AI는 어떨까? 딥러닝방식은 표면적으로 더 나은 결과를 낼 가능성은 있음. 하지만 근본적으로 치명적인 문제가 있다고 함.


현재 왓슨은 ‘왓슨 패스’를 통해 왓슨이 이같은 처방을 내놓은 알고리즘을 살펴볼 수 있다. 이를 분석해 문제가 없는지를 의사가 판단할 수 있다는 것이다. 이와 달리 딥러닝 방식은 연산 과정을 확인할 수 없는 이른바 ‘블랙박스’식 구조이기 때문에 특정한 치료방법을 선택한 이유를 알 수 없다. - 이코노미스트



“퀴즈왕 시절의 왓슨은 복수의 검색 알고리즘으로 다수의 정답 후보를 찾아내고 신뢰도를 산출해 수치가 가장 높은 후보를 최종 정답으로 정했고, 이는 의료에서도 마찬가지로 절대적으로 올바른 진단이나 치료법이 아니라 가장 확률이 높은 후보를 알려줄 뿐”, “AI는 성능이 아무리 향상되더라도 숙명적으로 틀린 답을 제시할 가능성을 안고 있고, 이는 게임이라면 괜찮지만 의료에선 치명적”

- 고바야시 마사카즈(<인공지능이 인간을 죽이는 날>)



어쨌든 AI는 더 세련되어질 텐데, 결국은 책임 문제일까요.


이 글과 같은 분류글목록으로 / 최신글목록 이동
Comments
Viewed Posts
Recent Comments
Recent Posts