즉각적 사물 인식을 컴퓨터가 학습하는 과정
-
0:01 - 0:02십년 전 만해도
-
0:02 - 0:05컴퓨터 시각 연구자들은
-
0:05 - 0:07개와 고양이를 컴퓨터가
구별해 내는 것은 -
0:08 - 0:09거의 불가능하다 생각했습니다.
-
0:10 - 0:13아무리 인공지능이
발전해도 말이지요. -
0:13 - 0:17지금은 99% 이상 정확하게
그 일이 가능한데, -
0:18 - 0:20이것을 '이미지 분류' 라고 합니다.
-
0:20 - 0:23이미지 마다 이름표를 붙여주면
-
0:23 - 0:26컴퓨터는 수천 개의 다른
유형까지 알아냅니다. -
0:27 - 0:30저는 워싱턴 대학교에서
석사과정을 밟고 있고 -
0:30 - 0:31'다크넷' 이라 불리는
프로젝트를 연구하고 있습니다. -
0:32 - 0:33일종의 신경망 체제의 프로그램인데
-
0:35 - 0:36컴퓨터 시각 견본을
교육하고 실험하는데 쓰입니다. -
0:36 - 0:39자 이제,
'다크넷'이 어떤 식으로 -
0:39 - 0:41이 이미지를 인식하는지 보겠습니다.
-
0:43 - 0:45지금 이 이미지에
-
0:45 - 0:46저희가 개발한 선별법을 적용하면
-
0:46 - 0:49단지 개 또는 고양이의
예측 뿐만 아니라 -
0:49 - 0:51자세한 종까지도 알아 낼 수 있습니다.
-
0:51 - 0:53이미 이 정도로
세밀한 수준에 올라와 있습니다. -
0:53 - 0:55아주 정확하기까지 합니다.
-
0:55 - 0:57제 반려견은 말라뮤트 입니다.
-
0:57 - 1:01'이미지 선별법'이 엄청나게
발전을 해왔는데 -
1:01 - 1:03이런 종류의 이미지에
저희 선별법을 적용시키면 -
1:03 - 1:05과연 어떤 결과가 나올까요?
-
1:07 - 1:08자...
-
1:13 - 1:17대략 비슷한 예측을
하는 것을 볼 수 있습니다. -
1:17 - 1:20맞습니다, 사진에 말라뮤트가 있죠.
-
1:20 - 1:23하지만 이 정도로는 어떤 장면인지
-
1:23 - 1:25많은 것을 알 수 없습니다.
-
1:25 - 1:27좀 더 효과적인 것이 필요하겠지요.
-
1:27 - 1:30저는 지금 '사물감지'라 불리는
문제에 대해 연구하고 있습니다. -
1:30 - 1:33한 이미지 안에 있는
모든 사물들을 찾아내서 -
1:33 - 1:34테두리 상자를 치고
-
1:34 - 1:36그것이 무엇인지 맞추는 것입니다.
-
1:36 - 1:40여기에 감지법을 적용하면
어떻게 되는지 보겠습니다. -
1:41 - 1:43자, 이런 식의 결과라면
-
1:44 - 1:46컴퓨터 시각 알고리듬으로
더 많은 것을 해낼 수 있겠군요. -
1:46 - 1:49이제 이미지 안에 고양이와 개가 있고
-
1:49 - 1:51대략 그들의 위치
-
1:52 - 1:53그리고 크기까지 파악하고 있습니다.
-
1:53 - 1:55그외 다른 정보들까지
알고 있을지도 모르겠네요. -
1:55 - 1:57저 뒤 쪽에 책 한 권이 있네요.
-
1:57 - 2:01이 컴퓨터 시각을 이용해서
어떤 시스템을 개발한다면, -
2:01 - 2:04자율주행 자동차나 로봇 시스템일텐데
-
2:04 - 2:06바로 이런 것들이
여러분들이 원하는 정보일 겁니다. -
2:07 - 2:10물리적 세계와 교감을
가능하게 하는 것들 말이지요. -
2:11 - 2:13자, 제가 처음으로
'사물감지' 연구에 들어갔을 때 -
2:13 - 2:16이미지 하나를 처리하는데
20초가 걸렸습니다. -
2:16 - 2:20이 분야에서 왜 속도가
중요한지 알고 싶다면 -
2:21 - 2:24여기 사물감지기능의 한 예가 있습니다.
-
2:24 - 2:26이미지 하나를 처리하는데
2초 밖에 걸리지 않습니다. -
2:26 - 2:2920초 짜리 감지기능보다는
-
2:29 - 2:3210배나 빠른 속도이지요.
-
2:32 - 2:35보시는 것 처럼, 이 기능이
예측을 하기 시작할 때면 -
2:35 - 2:37이미 벌어지고 상황은
바뀌어 있을 테니까 -
2:38 - 2:40응용 프로그램으로는
-
2:40 - 2:42별 효용이 없을 겁니다.
-
2:42 - 2:44만일 10배를 더 빠르게 한다면
-
2:44 - 2:47초당 다섯 장면을 처리하는
감지기능이 됩니다. -
2:47 - 2:49훨씬 낫죠.
-
2:49 - 2:51하지만 만일,
-
2:51 - 2:53여기서 더 큰 발전이 없다면
-
2:53 - 2:56이 정도의 시스템이 제 차를
운전하기를 원친 않겠지요. -
2:57 - 3:00이것이 제 노트북에서 실시간으로
작동되고 있는 감지 시스템입니다. -
3:01 - 3:04아주 부드럽게 제가 틀안에서
움직이는 대로 따라오죠. -
3:04 - 3:08아무 문제가 없습니다.
다양한 크기 -
3:09 - 3:11자세
-
3:11 - 3:13앞뒤 움직임에도
-
3:13 - 3:14훌륭하죠.
-
3:14 - 3:16이런 것이 바로
우리에게 필요한 것입니다. -
3:16 - 3:19컴퓨터 시각을 이용한
시스템을 개발할 때 말이지요. -
3:19 - 3:23(박수)
-
3:24 - 3:26불과 몇년 만에
-
3:26 - 3:29한 이미지를 처리하는 시간이 20초에서
-
3:29 - 3:33500분의 1초로,
천배나 빨라졌습니다. -
3:33 - 3:34어떻게 가능했을까요?
-
3:34 - 3:37과거에는, 사물감지 시스템들은
-
3:37 - 3:39이런 이미지를 가지고
-
3:39 - 3:42여러 영역으로 잘라내서
-
3:42 - 3:45각 영역 마다 선별작업을 실행하고
-
3:45 - 3:47그 선별작업에서 산출된
가장 높은 점수들이 -
3:47 - 3:51이미지의 감지로
간주되는 방식이었습니다. -
3:51 - 3:55하지만, 감지를 하기까지 한 이미지에
수천 번의 분류작업이 -
3:55 - 3:58또 수천 번의 신경망 감정을
거쳐야 했습니다. -
3:59 - 4:04대신에, 우리는 단일 네트워크로
모든 탐지가 가능케 했습니다. -
4:04 - 4:08모든 테두리 상자와 분류 개연성을
동시에 처리해 내는 것이지요. -
4:09 - 4:12저희 시스템에서는 감지를 해내기 위해
-
4:12 - 4:14한 이미지를 수천 번이 아니라
-
4:14 - 4:15단 한 번 보는 것으로 가능하고
-
4:15 - 4:18저희가 이것을 사물감지의 '욜로'법 으로
부르는 이유입니다. -
4:19 - 4:23이 속도로는, 이미지 뿐만 아니라
-
4:23 - 4:26동영상도 실시간으로
처리할 수 있습니다. -
4:26 - 4:29이제는 단순히 개와 고양이를
인지하는 것을 넘어서 -
4:29 - 4:32그들이 돌아다니는 것도,
서로 어울리는 것도 볼 수 있습니다. -
4:35 - 4:37이것이 저희가 개발해낸
감지기능입니다. -
4:37 - 4:41마이크로소프트의
코코 데이터 세트 안에서 -
4:41 - 4:4480개의 등급에 적용시켜
얻어낸 것이지요. -
4:44 - 4:48숟가락, 포크, 그릇 같이
평범한 물건들이 -
4:48 - 4:49다양하게 있네요.
-
4:50 - 4:53좀 특이한 것들도 보이지요.
-
4:53 - 4:57동물, 자동차, 얼룩말, 기린.
-
4:57 - 4:59재미난 걸 한번 해볼까요.
-
4:59 - 5:01방청석으로 들어가서
-
5:01 - 5:03어떤 물건들이 감지되는지 보겠습니다.
-
5:03 - 5:04동물인형 갖고 싶으신 분?
-
5:06 - 5:08저기 곰인형도 몇개 있네요.
-
5:10 - 5:15감지한계치를 조금 낮추면,
-
5:15 - 5:18더 많은 분들이 화면에 잡히겠지요.
-
5:20 - 5:22이 정지표지판들도
잡아낼 수 있는지 보겠습니다. -
5:22 - 5:24배낭도 몇개 보이네요.
-
5:26 - 5:28조금 가까이 당겨 보지요.
-
5:30 - 5:32좋습니다.
-
5:32 - 5:35이 모든 것이 컴퓨터에서 실시간으로
-
5:35 - 5:36처리되고 있습니다.
-
5:37 - 5:39꼭 알아둘 것은
-
5:39 - 5:42이것이 총괄적인
사물감지 시스템이란 것입니다. -
5:42 - 5:47그래야 어떠한 이미지 종류에도
적용시킬 수 있겠지요. -
5:48 - 5:51동일한 코드가
-
5:51 - 5:53정지표지판 또는 보행자
-
5:53 - 5:55자율주행 자동차 안의 자전거들을
찾아내기도 하고 -
5:55 - 5:58조직검사를 통해 암세포를
-
5:58 - 6:01찾아낼 때도 사용될 수 있습니다.
-
6:01 - 6:05이미 세계 곳곳의 연구원들이 이 기술을
-
6:06 - 6:10의학과 로봇공학의 발전 등에
쓰고 있습니다. -
6:10 - 6:11오늘 아침 신문에
-
6:11 - 6:16나이로비 국립공원의 동물 수 조사에
-
6:16 - 6:19욜로가 감지 시스템의 일부로
사용된다고 나왔더군요. -
6:19 - 6:22다크넷이 오픈소스이기도 하고
-
6:22 - 6:24모두가 무료로 사용할 수
있도록 열려있기 때문입니다. -
6:26 - 6:31(박수)
-
6:31 - 6:36그런데, 저희는 감지기능의
접근성과 사용성을 더 높이고 싶었고 -
6:36 - 6:40견본 최적화
-
6:40 - 6:43네트워크 이진화와 근사치의
적절한 조화를 통해서 -
6:43 - 6:47이제 휴대전화에서도
사물감지가 가능하게 했습니다. -
6:53 - 6:58(박수)
-
6:59 - 7:04아주 흥분되는데요. 왜냐면
급이 낮은 컴퓨터 시각 문제점들을 -
7:04 - 7:06해결할 아주 효과적인
방법이 있으니까요. -
7:06 - 7:10누구나 이 기술을 가지고
원하는 것들을 만들어 낼 수 있습니다. -
7:10 - 7:13이제 나머지는
여러분들의 몫이고요. -
7:13 - 7:16또 이 소프트웨어를 사용하는
세상의 모든 분들의 몫입니다. -
7:16 - 7:20이 기술로 사람들이 어떤 것들을
만들어 낼지 너무 기대됩니다. -
7:20 - 7:21감사합니다.
-
7:21 - 7:24(박수)
- Title:
- 즉각적 사물 인식을 컴퓨터가 학습하는 과정
- Speaker:
- 조셉 레드몬(Joseph Redmon)
- Description:
-
10년 전만 해도, 연구원들은 컴퓨터가 고양이와 강아지를 구분해 내는 일은 거의 불가능할 것이라고 생각했습니다. 오늘날, 컴퓨터 시각장치는 99퍼센트 이상의 정확도로 이 일을 해 내고 있습니다. 어떻게 가능할까요? 조셉 레드몬은 빛처럼 빠른 속도로 얼룩말과 정지표시 등의 이미지와 동영상을 식별할 수 있는 오픈소스 사물식별법인 "욜로"시스템을 연구하고 있습니다. 이 놀라운 실시간 시연을 통해, 레드몬은 자율주행 자동차, 로봇공학, 심지어는 암 발견에까지 응용할 수 있는 이 중요한 발전을 자랑스럽게 보여줍니다.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 07:37
Jihyeon J. Kim approved Korean subtitles for How computers learn to recognize objects instantly | ||
Jihyeon J. Kim edited Korean subtitles for How computers learn to recognize objects instantly | ||
Jihyeon J. Kim edited Korean subtitles for How computers learn to recognize objects instantly | ||
Jihyeon J. Kim edited Korean subtitles for How computers learn to recognize objects instantly | ||
Jihyeon J. Kim edited Korean subtitles for How computers learn to recognize objects instantly | ||
Taz B. K accepted Korean subtitles for How computers learn to recognize objects instantly | ||
Taz B. K edited Korean subtitles for How computers learn to recognize objects instantly | ||
Taz B. K edited Korean subtitles for How computers learn to recognize objects instantly |