Graduate School of Culture Technology was established in 2005 under the support of the Ministry of Culture, Sports and Tourism. It aims to promote the domestic cultural content business as future nation core key industries through fostering interdisciplinary top-level human resources based on cutting-edge technology with grafting cultural arts and sociology. more >
News2017-09-29
[연합뉴스] 삼성전자 "머신러닝 이용한 연주시스템" 등 37개 연구 지원

게재일: 2017. 9. 28. (목)

삼성전자는 '미래기술육성사업'의 2017년 하반기 지원과제로 머신 러닝을 이용한 음악 연주 시스템 개발 등 37개를 선정...

... ICT 분야에서는 '머신 러닝을 이용한 감성적 음악 연주 생성 시스템 개발'(남주한 KAIST 교수·박종화 서울대 음대 교수) 등 15개가 선정 ...

... ICT와 음악을 융합해 딥 러닝 알고리즘을 바탕으로 전문가 수준의 음악 연주 시스템을 개발하는 과제 ...

원문: http://www.yonhapnews.co.kr/bulletin/2017/09/28/0200000000AKR20170928050600003.HTML

 

 

[보도자료] 삼성전자, 2017년 하반기 미래기술육성사업 지원과제 선정

게재일: 2017. 9. 28. (목)

 

삼성전자가 연구비를 출연해 지원하는 미래기술육성사업의 2017년 하반기 지원과제 37개가 선정됐다.

기초과학 분야에서 14개, 소재기술과 ICT(정보통신기술) 분야에서 23개 등이며, 연구비 531억원이 지원된다.

2013년에 시작한 삼성미래기술육성사업은 △ 기초과학 △ 소재기술 △ ICT의 3개 연구분야에서 매년 3차례에 걸쳐 지원과제를 선정, 10년 간 총 1조 5000억 원을 출연해 국가 미래기술 육성을 지원하는 프로그램이다.

▲ICT분야 남주한 교수(KAIST)

 

원문: https://news.samsung.com/kr/?p=354465

more >
News2017-09-29
[조선일보] 콜린 퍼스가 쏜 총알이 내 귀 옆으로 "피유우웅~"

게재일: 2017. 9. 22. (금)

... 우리 기술로 만든 특수상영관 '스크린X' ...

... KAIST 노준용(46) 교수의 비주얼 미디어 랩 ...

... 전인미답의 연구 개발에 뛰어든 KAIST ...

원문: http://life.chosun.com/site/data/html_dir/2017/09/21/2017092102607.html

more >
News2017-09-05
[수상소식] 2017 봄학기 Undergraduate Research Program 우수상 수상 (MAC Lab, 지도교수 남주한)

2017년 봄학기 URP 발표 심사에서 우리대학원 MAC Lab 에서 연구했던 전산과 서동우, 산업디자인과 이경연 학생이 우수상을 수상하였습니다.


- 연구주제 : Music Retrieval and Recommendation System Using Music Auto-Tagging

- 지도교수 : 남주한 교수

- URP 조교 : 이종필 박사과정 (MAC Lab)

- 참여학생 : 서동우 (전산학과), 이경연 (산업디자인학과)

 

more >
News2017-08-29
[보도기사]MAC Lab 남주한 교수님/박승순 석사과정," 4차 산업혁명 속 정답이 아닌, 팩트와 과정을 찾는 작가 ‘박승순’ "

[손윤선의 다락多樂풍경] 4차 산업혁명 속 정답이 아닌, 팩트와 과정을 찾는 작가 ‘박승순’

Park Seung-soon, a writer looking for facts and processes not the correct answer in the 4th industrial revolution,

- 작가 소개

박승순은 뉴미디어 콘텐츠 크리에이터이자 전자음악가 RADIOPHONICS로 활동 중이다. 콜렉티브 ‘아이디언(IDEAN)‘의 공동 설립자이기도 하다. 그는 음악을 매개로 인간이 우주 또는 자연과 상호작용할 수 있는 방법에 대하여 연구 및 작업을 이어오고 있다. 그는 최근 개인 연구 및 작업의 목적으로 딥러닝 알고리즘을 활용해 풍경 이미지를 분석하고 이에 적합한 소리를 자동으로 재생하는 시스템을 개발 중이다. 인천아트플랫폼 입주 기간 동안 인천의 현재 풍경 이미지와 소리 자료를 수집하고 이를 컴퓨터로 학습시켜 일종의 ‘인공지능 기반 사운드스케이프 시스템’을 구축할 예정이다. 이를 통해 응용 가능한 새로운 형태의 사운드스케이프 작법 및 퍼포먼스 등을 개발함과 동시에 ‘인공지능’에서 발생 가능한 오류들을 병치하여 인간과 컴퓨터가 소리 풍경을 인지 또는 감상하는 메커니즘의 한계점을 이야기할 예정이다.

(박승순 작가 개인 사이트 : www.seungsoonpark.com , www.radiophonics.net)

한국예술종합학교 예술경영과를 졸업하고 카이스트 문화기술대학원에 재학 중인 독특한 이력을 가진 그는 오늘도 4차 산업혁명으로 나아가면서 많은 기술과 ‘소리’의 교차점을 고민한다. 피지컬 컴퓨팅, 인터랙티브 아트, 사물인터넷(IoT), 그리고 인공지능(AI)까지. 전자음악을 다루던 그는 이제는 ‘매체 음악가’로서 다양한 기술적 흥미를 심층적인 작품, 논문연구로 발전시키고 있다. 

- 작품 소개

‘NEUROSCAPE’는 Neuro(신경)와 Landscape(풍경)의 합성어로, 인공신경망에 의해 재구성된 기억-풍경을 의미한다. 매체 음악가 박승순과 알고리즘 개발자 이종필로 구성된 팀, ‘RETRIEVER’는 자연 또는 도시 풍경 이미지를 인공지능 알고리즘으로 분석한 후 이에 상응하는 사운드/이미지를 자동으로 연동하는 시스템을 개발하여, 미디어 인스톨레이션 및 실험적인 음악 퍼포먼스 형태로 구현한다. 이 작품은 인간이 생각하지 못할 수도 있는 영역을 발견하여 감각의 확장 가능성을 제시함과 동시에 딥러닝 알고리즘이 지니고 있는 수많은 오류를 병치하여 양면성을 드러내고, 인공지능의 환상에서 벗어나 ‘인간이 기술을 어떻게 바라보고 활용할 수 있는지’에 관한 근본적인 질문을 던지고자 한다.

파트 I
장소: 일산 킨텍스
일시: 8.10-15 (10:00-17:00)

파트 II
장소: 서울시립미술관 SeMA 창고갤러리
일시: 9.23-10.1

파트 III
장소: 플랫폼-L
일시: 11.16-11.26

파트 IV
장소: 인천아트플랫폼
일시: 11.10-12.17

원본보기http://m.mk.co.kr/uberin/read.php?sc=51400006&year=2017&no=555279

관련영상링크https://vimeo.com/230440161

참조: 매일경제신문, 2017.8.18

지원기관/사업: 과학창의재단, 과학 융합형 문화예술 콘텐츠 개발 사업 (GAS 2017 : Getting Artistic Contents with Science 2017), «A.I & Arti cial Creativity / 인공지능과 인공적 창의성 展» http://gas-art.kr/artist/rt/ )

[Eng]

- About the author

Park SeungSun is a new media contents creator and electronic musician RADIOPHONICS. He is also co-founder of the collective 'IDEAN'. He has been studying and working on how human beings can interact with space or nature through music. He is currently developing a system that analyzes scenery images using deep-running algorithms for personal research and work, and automatically reproduces the sounds that fit them. During the tenure of the Incheon Art Platform, Incheon will collect a current landscape image and sound data and learn it by computer to build a kind of 'Artificial intelligence based soundscape system'. Through this, we will develop a new form of soundscape and performance that can be applied, and discuss the limitations of the mechanism that human and computer perceive or appreciate the sound landscape juxtaposizing possible errors in 'artificial intelligence'.

(Park Seung-sun's personal site: www.seungsoonpark.com, www.radiophonics.net)

Having graduated from the Arts Management Department of the Korea National University of Arts and graduated from the KAIST Graduate School of Culture and Technology, he has a unique history. He goes on to the fourth industrial revolution and worries about the intersection of technology and sound. Physical Computing, Interactive Art, Internet (IoT), and Artificial Intelligence (AI). As a media musician, he has developed various technical interests into in-depth work and research.

Having graduated from the Arts Management Department of the Korea National University of Arts and graduated from the KAIST Graduate School of Culture and Technology, he has a unique history. He goes on to the fourth industrial revolution and worries about the intersection of technology and sound. Physical Computing, Interactive Art, Internet (IoT), and Artificial Intelligence (AI). As a media musician, he has developed various technical interests into in-depth work and research.

- Introduction

'NEUROSCAPE' is a synonym for Neuro and Landscape, which means memories-landscape restructured by artificial neural networks. 'RETRIEVER', a team composed of media artist Park Seung-soon and algorithm developer Lee Jong-Pil, analyzes the natural or urban scenery images by artificial intelligence algorithm and then develops a system that automatically synchronizes sound / images corresponding to them. It is implemented in performance form. This work reveals the possibilities of expanding the senses by discovering areas that human beings might not think of. At the same time, it reveals the double-sidedness by juxtaposing many mistakes that the deep learning algorithm has, I would like to ask a fundamental question about whether I can look and use it.

Part I
Location: KINTEX, Ilsan
Time: 8.10-15 (10: 00-17: 00)

Part II
Place: Seoul Museum of Art SeMA Warehouse Gallery
Date: 9.23-10.1

Part III
Location: Platform-L
Date: 11.16-11.26

Part IV
Place: Incheon Art Platform
Date: 11.10-12.17

View source: http://m.mk.co.kr/uberin/read.php?sc=51400006&year=2017&no=555279
Related video link: https://vimeo.com/230440161

 

 

more >
News2017-08-18
(보도기사)모션컴퓨팅랩 이성희 교수님/박사과정 김미경, 살 떨림 재현 기술 개발하여 CG·애니메이션에 활용

살 떨림 재현 기술 개발... CG·애니메이션에 활용(Motion Computing Lab develops a technology that recreates vibration of soft tissue)

KAIST(총장 신성철)가 인간의 살 떨림 모션을 손쉽게 재현할 수 있는 기술을 개발했다. 컴퓨터그래픽(CG)이나 애니메이션에 활용하면 훨씬 역동성 있고 실감나는 영상을 얻을 수 있다.



KAIST는 이성희 문화기술대학원 교수팀이 인체가 움직이는 과정에서 발생하는 살의 떨림을 기존 방식보다 쉽고 정밀하게 구현하는 '관찰 기반 물리 인체 캐릭터 시뮬레이션' 기술을 개발했다고 13일 밝혔다. 

인간의 살 떨림을 영상으로 재현하기 위해서는 그동안 카메라 여러 대로 대상을 캡처하거나 물리 연산을 이용해 시뮬레이션을 했다. 그러나 이 같은 방법은 뚜렷한 단점이 있어 양질의 영상을 얻기 어려웠다. 캡처 방식은 인체 관절 움직임의 경우 실제로 담을 수 있지만 살 떨림 재현이 제한돼 역동적 떨림을 구현하기 어려웠다. 직접 카메라로 촬영한 것 외에 다양한 영상을 얻을 수도 없었다. 

기존 시뮬레이션 방식은 상대적으로 범용성이 뛰어나고 미세한 살 떨림을 구현할 수 있지만 영상을 얻기 위해서는 많은 시간과 컴퓨팅 파워가 필요했다. 간단한 캐릭터나 신체 일부 모습 재현에 주로 쓰였다. 

연구팀은 여기에 캡처한 인체 영상과 시뮬레이션의 결과 값을 비교하고, 물성 값을 자동으로 부여하는 알고리즘을 적용했다. 서로 다른 결과 값의 격차를 측정, 자동으로 오차를 줄이는 역할을 한다. 이 결과 인체 전체를 시뮬레이션하는 것에 비해 4배 빠른 속도로 살 떨림 영상을 얻을 수 있다. 고속으로 움직이는 다양한 인체 영상에 실제와 같은 살 떨림 효과를 넣는 것도 가능해진다. 

KAIST는 이 기술을 지난 1일 '시그래프(SIGGRAPH) 학회'에서 소개했다. 시각 기술 관련 세계 최고 수준의 학회다. 

 

 

연구팀은 내년에 '기가코리아 정부 과제 사업'에 참여, 기업과 기술 상용화를 위한 후속 연구에 나설 계획이다. 

이상희 교수는 “캡처와 시뮬레이션 방식을 융합해 더욱 역동적인 살 떨림 영상을 손쉽게 얻는 기술을 개발했다”면서 “영상 콘텐츠 사실성을 높이고 가치를 더하는 기반 기술이 될 것”이라고 말했다. 

 

참조: 전자신문 2017.8.13

원본보기: http://www.etnews.com/20170811000293

 

KAIST (Korea Advanced Institute of Science & Technology, President Shin Sung-chul) has developed a technology that can easily recreate a motion of vibration of human soft tissue. If this technology is applied to CG (Computer Graphic) or animations, one can obtain images that are more realistic and dyanmic.
KAIST announced on the 13th that a research team led by Professor Lee Sung-hee of The Graduate School of Culture Technology has developed ‘observation-based physical body character simulation’ technology that implements vibration of soft tissue that occurs when there is movement of a human body easier and more accurate than current methods.
Until now one had to either capture a subject with many cameras or use physical calculations in order to recreate vibration of human soft tissue through images. However it was difficult to obtain images with good quality as these methods have clear flaws. Although capturing a subject with many cameras can actually capture movements of human joints, it was difficult to implement dynamic vibrations as there were limitations in recreating vibration of soft tissue. It could not also capture other variety of images except for the subjects that are directly captured with cameras.
Although current simulation methods have relatively excellent versatility and can implement accurate vibration of soft tissue, many hours and computing power were needed in order to obtain images. They were mostly used for simple characters or recreation of certain body parts.

Research team compared results of simulation and images of a human body that are captured and applied an algorithm that automatically gives property value. This algorithm measures difference in values of different results and automatically reduces any errors. As a result, research team was able to obtain images of vibration of soft tissue at a speed that was four times faster than simulating entire human body. It is also possible to apply effect of vibration of soft tissue that is like actual vibration of soft tissue to variety of images of human bodies that are moving at fast speed.
KAIST introduced this technology at ‘SIGGRAPH’, which is the world’s highest-level conference for visual technologies, on the 1st of this month.
Research team is planning to participate in South Korean Government’s GiGA Korea project in 2018 and carry out follow-up research in order to commercialize technologies and companies.
“We have developed a technology that can easily obtain images of more dynamic vibration of soft tissue by combining capturing and simulation methods.” said Professor Lee Sang-hee. “It will be a technology that adds values and increases reality of images.”
 

more >