본문 바로가기
AI_Column

AI는 지금 되풀이되는 위기를 겪고 있습니다

by Media_AI Medeai 2020. 11. 15.

오랜만에 포스팅을 작성하는데요, 주제가 조금 무겁습니다.

 

MIT의 기술리뷰 블로그에서 작성한 포스팅을 번역해봤는데요, 주제가 AI 연구의 위기입니다.

 

우리가 으레 말하는 산업계에서의 AI 겨울에 대한 이야기는 아니고요, 연구계에서의 문제를 제기한 것입니다.

 

딥러닝 분야가 발전할 수 있었던 원동력 중 하나는 분명히 오픈소스 기반 공유문화입니다.

 

그러나 포스팅의 내용처럼, 어느 순간부터는 폐쇄적인 느낌이 생기는 것도 같아요.

 

우리의 이런 공유문화가 앞으로도 이어지고 연구와 개발이 계속해서 활발하게 진행되기를 바랍니다!

 

이 포스팅은 새벽에 작성하고 있는데요, 괜스레 입이 써집니다.

 

여느 포스팅과는 다르게 사설이 길었습니다.

 

본문으로 넘어가보도록 할게요!

(오역의 가능성이 있으니 아래 출처를 통해 직접 읽어보시기를 권장드립니다!)

 

(원문 출처 : www.technologyreview.com/2020/11/12/1011944/artificial-intelligence-replication-crisis-science-big-tech-google-deepmind-facebook-openai/?fbclid=IwAR0iXqBTGrX4AfFJgg9hWRzjqPOCaCwabT-5oT9Pc5Lte0nTBfFIzXDv1F8 )

 

 

---------------------------------------------------

 

 

올해 초 Google Health의 연구가 저널에 실렸다고 해요. 

이에 대해 31 명의 과학자가 작성한 신랄한 평가를 지난달에 Nature가 발표했습니다.

구글은 의료 인공지능 분야에서 유방암 진단에 대한 AI의 성공적인 실험을 연구로 발표했습니다.

그러나 비평가들은 Google 연구진이 코드와 테스트 방법에 대한 정보를 거의 제공하지 않은 것을 비판했는데요,

이런 연구는 그저 구글의 기술 독점을 홍보하는 꼴이라고 합니다.

 

이 비판적인 발표의 대표저자이자 토론토 대학에서 computational genomics(전산유전학이 적절한 표현일까요?)을

연구하고 있는 Benjamin Haibe-Kains 교수는 "진짜 더는 못참겠다."고 말했습니다.

 

Haibe-Kains 교수는 "비단 이번 연구만이 문제가 아닙니다. 수 년 동안 우리를 괴롭혀온 문제입니다."라고 합니다.

Haibe-Kains 교수와 그의 동료들은 AI 연구의 투명성 부족에 대해 비판하는 과학자 중입니다.

그리고 이러한 과학자들은 늘고 있고요.

"Google의 논문을 봤을 때, 우리는 과학과 관련없이 그냥 흥미롭기만 한 연구를 출판하는 저널의 케이스다."라고 그는 말합니다.

“그냥 기술에 대한 광고에 가깝습니다. 정말 이 논문을 보고 아무것도 할 수 없습니다.”

 

과학은 신뢰를 기반으로 세워집니다.

다시 말해서, 여러 연구자 및 개발자들이 연구를 답습하고 스스로 결과를 재검증 할 수 있도록 해야 합니다.

연구에 사용한 방법론과 충분한 세부 정보를 공유해야만 한다는 것입니다. 

이 방법이 바로 연구의 오류가 수정되고 잘못된 결과를 제거하는 방법입니다.

그리고 연구 reproducing을 통해 다른 사람들이 연구 결과를 바탕으로 현실을 발전시킬 수 있습니다.

reproducing 할 수 없는 과학은 추락하게 되어있습니다.

 

욕심만 가득찬 멍청이

FAIR(Facebook AI Research)와 Mcgill 대학에서 연구를 하고 있는 Joelle Pineau 교수는 지난 10년간 AI분야가 실험연구만 하고 있다고 말합니다.

"이전에는 이론적인 연구가 됐지만, 지금은 실험만 계속 진행되고 있습니다."
"건전한 방법론을 세우기 위한 연구자들의 헌신이 실험의 야망에 덮혀있습니다."

 

문제는 단순히 학술 영역에 국한되지 않습니다.

연구의 투명함이 부족하면 새로운 머신러닝 모델과 그 기술의 편향 및 안정성이 적절히 평가되지 않습니다.

AI가 연구조직에서 연구되고 나면 현실에 적용된 application을 통해 사람들의 삶에 직접적으로 영향을 미칩니다.

실험에서만 잘 작동되는 머신러닝 모델은 현실(야생)에서 실패할 수 있습니다.

그렇기 때문에 서로 다른 환경에서 다양한 연구원들이 reproducing하고 문제를 드러내는 방법을 통해 더 안정적으로 ai가 발전할 수 있습니다.

 

AI는 이미 블랙박스 문제로 어려움을 겪고 있습니다.    

머신러닝 모델의 결과가 나오는 이유를 선명하게 말하는 것은 불가능할 수 있습니다.

그런데 연구의 투명성마저 부족하면 이런 상황이 더 악화됩니다.

가능한 한 다양한 시선과 사람들이 모델을 테스트하고 파악할 수 있도록 해야합니다.

이 방법이야 말로 우리가 medical AI를 안전하게, AI를 신뢰하게, 챗봇을 덜 미워하게 만드는 방법입니다.

 

reproducing이 정상적으로 작동하는 것을 막는 것은 코드, 데이터셋, 인프라 세 가지 입니다.

Nathan Benaich와 Ian Hogarth가 잘 조사한 연례분석인 2020 State of AI에 따르면,

AI 연구의 15%만이 코드를 공유한다고 합니다.

산업 연구자들은 대학소속 연구자들보다 더 심각한 offender입니다.

(offender라는 표현을 범죄자라고 하는 것은 너무 무거워서 영단어 그대로 가져왔습니다.)

보고서에서는 특히 코드를 꽁꽁 감추는 OpenAI와 Google DeepMind를 불러옵니다.

 

그리고 데이터와 인프라 두 가지 중요한 요소에서도 가진 자와 못가진 자의 갈등이 커지고 있습니다.

데이터는 facebook의 유저 데이터나 의료 데이터처럼 독점적이거나 예민한 경우가 많습니다.

IT 대기업들은 대부분의 대학과 중소기업이 접근할 수 없는 크고 값비싼 기술 클러스터를 조성하고 있습니다.

 

예를 들어, GPT-3을 트레이닝하는 데 OpenAI는 1000만 ~ 1200만 달러를 들였다고 합니다.

이는 프로토타입 개발 및 교육에 필요한 비용을 포함하지 않는 순수한 모델링 비용입니다.

Benaich는 이 금액에 적어도 1~2 배를 곱하는 것이 맞다고 합니다.

극소수의 대기업만이 수행할 수 있는 여유가 있겠지요.

"다른 누구도 연구에 이런 예산을 투자할 수 없습니다."

 

매해 수천 개의 논문이 나오고 있고, 발전의 속도는 정신없습니다.

그러나 연구자들이 어떤 연구를 신뢰할 수 있는지 모른다면, 그 분야는 앞으로 나아갈 수 없습니다.

reproducing을 통해 다른 연구자들은 실제로 이 기술이 설명한만큼 잘 작동하는지 확인할 수 있어야 합니다.

Pineau 교수는 "어떤 연구가 신뢰할 수 있는 지 없는 지 구분하는 것이 점점 더 어려워지고 있습니다."라고 말합니다.

 

어떤 방법을 취할 수 있을까요?Pineau 교수는 다른 AI 연구자처럼 대학과 기업 연구소에서 시간을 보냅니다.Pineau 교수는 지난 몇 년 동안 AI 연구가 출판되는 방식을 변화시켜 왔습니다.작년에 그녀는 세계에서 가장 큰 AI 컨퍼런스 중 하나인 NeurIPS에 논문을 제출할 때, 코드와 실험에 대한 자세한 설명을포함해서 제출하도록 하는 체크리스트를 소개했습니다.

 

복제는 그 자체로 보상입니다

Pineau는 연구자들이 발표된 연구의 결과를 reproducing 시도할 수 있도록 돕고, 연구의 reproduciblity 문제를 해결하는 데 기여했습니다.학회 참가자들은 컨퍼런스에 승인된 논문을 선택하고 제공된 연구정보를 활용하여 실험을 reproducing하기 위해 경쟁합니다.유일한 reward는 명성입니다.

 

이러한 reproducing에 대한 인센티브 부족은 AI 뿐만 아니라 과학 전반에 걸친 장벽입니다.복제는 필수적이지만 보상이 없습니다.한 가지 해결책은 학생들이 작업을 수행하도록 하는 것입니다.Rosemary Ke는 Yoshua Bengio가 설립한 몬트리올 대학의 연구기관인 Mila의 박사과정 학생입니다.Ke는 지난 몇 년 동안 학생들이 머신러닝 교육과정 중에 NeurIPS에 제출된 연구를 reproducing하는 과정인Reproducibility Challenge 를 조직했습니다.일부 성공적인 reproducing은 검토를 거쳐서 ReScience 저널에 게시됩니다.

 

Ke는 "다른 연구를 처음부터 재현하려면 엄청난 노력이 필요합니다. Reproducibility challenge는 노력을 인정하고 잘 수행한 사람에게 명예를 부여합니다."라고 했습니다.Ke와 Pineau는 ICML과 ICLR을 포함한 7개 학회에서 이와 같은 재현성 문제를 확장했습니다.

 

투명성에 대한 또 다른 원동력이 있습니다. AI 연구자 Robert Stojnic이 캠브리지 대학에 있을 때 만든 Papers with Code 프로젝트입니다. (Stojnic은 현재 Facebook에서 Pineau의 동료입니다.) 논문과 사용한 코드를 연결할 수 있는 웹 사이트로 시작된 Papers with Code는 arXiv와 공동 작업을 시작했습니다. 10월부터 arXiv의 모든 ML/DL 논문에는 작성자가 제공하고자하는 코드로 직접 연결되는 Papers with Code 섹션이 함께 제공됩니다. 목표는 공유를 표준으로 만드는 것입니다.

 

Pineau는 체크리스트가 도입되었을 때, NeurIPS에 코드를 포함한 연구의 제출이 50 % 미만에서 약 75 %로 증가했다고 합니다. 수천 명의 리뷰어가 코드를 사용하여 연구를 평가했다고 합니다. 재현성 문제에 참여하는 참가자 수가 증가하고 있다는 것이죠.

 

Sweating the details

Haibe-Kains는 코드만으로는 실험을 재실행하기에 충분하지 않다고 말합니다. AI 모델을 구축하려면 여기에 하이퍼파라미터 값을 조정하는 등 사소한 변경을 많이 해야합니다. 하이퍼파라미터의 차이로 모델의 작동여부가 나뉩니다. 모델을 학습하고 튜닝하는 방법을 설명하는 메타 데이터가 없으면 코드는 쓸모가 없습니다. "악마는 실제로 세부적인 내용에 있습니다."라고 말합니다.

 

(Pineau와 Haibe-Kains의 의견이 여기서 조금 달라집니다. Pineau는 코드 공유만 되면 어떻게든 긍정적으로 발전할 것이라는 전망이고,Haibe-Kains는 불충분하다는 입장입니다. 또한 인프라에 대한 전망도 Pineau는 조금 더 긍정적이고Haibe-Kains는 비관적입니다)

 

Haibe-Kains의 말을 이어보자면, 그는 Google Health 팀에게 유방암 검진 AI 코드를 공유 요청을 했습니다.그러나 더 많은 테스트가 필요하다는 말만 돌려받았습니다.그리고 Google Health 팀은 Nature를 통해 게시된 Kains의 비판에 "우리 연구진은 사용한 의료 데이터를 공유할 권한이 없습니다."라는 답변입니다.

 

Haibe-Kains는 "그 연구로 서비스로 만들고 싶어서 모든 정보를 공개하지 않는 것은 이해합니다."라고 합니다. 하지만 그는 과학 저널이나 학회에 출판한다면 다른 사람들이 실행할 수있는 코드를 공개 할 의무가 있다고 생각합니다. 더 적은 데이터로 훈련 시킨 모델을 공유하거나 더 적은 컴퓨팅 파워를 사용하는 것을 의미하겠죠. “서비스를 개발하는 것과 연구 사이의 경계가 점점 더 모호해지고 있습니다."

 

Research habits die hard

기업이 연구 출판에 대한 비판을 받는다면 왜 받을까요? 물론 어느 정도의 홍보 때문일 것입니다.

그러나 주된 이유는 최고의 기업 연구조직이 대학의 연구자로 가득 차 있기 때문입니다.

Facebook AI Research, DeepMind 및 OpenAI와 같은 곳의 문화는 어느 정도 전통적인 연구 관습에 의해 형성됩니다.

IT공룡회사는 넓은 연구 커뮤니티에 참여해서 승리합니다.

기업 연구실의 모든 대규모 AI 프로젝트는 공공 연구기반 위에 켜켜이 쌓입니다.

Facebook의 PyTorch 또는 Google의 TensorFlow와 같은 오픈 소스 머신러닝 툴을 사용하지 않는 AI 연구원은 거의 없습니다.

 

IT 공룡회사에서 더 많은 연구가 이루어짐에 따라 비즈니스와 연구 간의 trade-off는 불가피하게 발생할 것입니다.

문제는 다른 수많은 연구자들이 탐색하는 방법입니다.

Haibe-Kains는 Nature와 같은 저널이 발행한 내용을 reproducible한 연구와 기술 쇼케이스 등 별도의 세션으로 나눌 것을 제안합니다.

 

Pineau는 낙관적인 입장입니다.

“연구에 대한 오픈된 접근 루트가 없다면 저는 Facebook에서 일하지 않을 것입니다.”라고 그녀는 말합니다.

(FAIR는 연구를 잘 오픈하나 봅니다.)

 

다른 대기업 연구소들도 연구의 투명성에 대한 헌신을 강조하고 있습니다.

Google DeepMind의 부사장 Kavukcuoglu는 “연구에는 현장의 사람들에 의한 조사와 복제가 필요합니다.

이는 DeepMind에서 연구에 대한 우리의 접근 방식에서 중요한 부분입니다."라고 말합니다.

 

"OpenAI는 전통적인 연구실과는 매우 다른 방식으로 성장했습니다."라고 회사 대변인 Kayla Wood는 말합니다.

"당연히 의문이 들 수 있습니다."

그녀는 OpenAI가 AI 파트너쉽에서 80개 이상의 산업 및 학술 기관과 협력하며,

연구를 위한 장기적인 연구 규범을 염두하고 있다고 말합니다.

 

Reproducibility를 위한 Pineau와 몇몇 연구자들이 도입한 관행의 장기적인 영향은 아직 확인되지 않았습니다.

습관이 영원히 바뀔까요?

연구 외적으로 현실세계에서의 AI의 활용에 어떤 차이가 있을까요?

AI의 연구가 취하는 방향에는 많은 것이 달려 있습니다.

예컨대 OpenAI가 선호하는 더 큰 모델과 데이터 셋에 대한 트렌드는,

대부분의 연구자들이 AI의 최첨단에 접근 할 수 없게 만들 것입니다.

 

반면에 model compressionfew shot learning과 같은 기술은 연구자들이 더 작고 효율적인 AI로 작업 할 수 있도록합니다. 

어느 쪽이든 AI 연구는 여전히 대기업에 의해 주도될 것입니다.

Pineau는 이것이 올바르게만 수행된다면 나쁜 일은 아니라고 말합니다.

"AI는 기업의 연구 운영 방식에 대한 맥락을 바꾸고 있습니다."

 

더 넓은 연구분야 참여할 기회를 갖도록하는 것이 핵심입니다.

사람들이 의존하는 AI의 신뢰도는 최첨단에서 나오기 때문입니다.

 

-----------------------------------------------------------------------------

 

이번 번역은 정말 어려웠습니다.

 

요약보다는 중요한 요소를 짚어보자면 대강 이렇습니다.

 

1. 연구에서 반복가능성은 중요합니다.

 

2. 딥러닝 분야에서는 데이터셋 공개, 코드 공개, 충분한 방법론(hyper-parameter 등) 설명이 반복가능성을 가져옵니다.

 

3. 가뜩이나 딥러닝은 블랙박스라서 이론적인 설명도 어려워서 위 요소를 통해 반복가능성을 검증해야 합니다.

 

4. 근데 코드도 데이터셋도 공개 안합니다.(State of AI 2020이라는 리포트에 따르면 연구의 겨우 15%가 코드를 공개함)

 

5. 아니면 컴퓨팅 파워가 오지게 들어갑니다.

 

6. AI를 설명할 수도, reproducing을 통해 안정적으로 검증할 수도 없다면 큰 위기가 찾아올 것입니다.

 

7. 연구와 코드, 메소드를 잘 공개해주시는 분들이 얼마나 숭고한 기여를 해주고 계신 지 깨달았습니다.

 

 

댓글0