자율 주행 Ai | 일론 머스크가 말하는 자율주행과 Ai 답을 믿으세요

당신은 주제를 찾고 있습니까 “자율 주행 ai – 일론 머스크가 말하는 자율주행과 AI“? 다음 카테고리의 웹사이트 https://you.charoenmotorcycles.com 에서 귀하의 모든 질문에 답변해 드립니다: https://you.charoenmotorcycles.com/blog/. 바로 아래에서 답을 찾을 수 있습니다. 작성자 백색나무 이(가) 작성한 기사에는 조회수 133,514회 및 좋아요 2,501개 개의 좋아요가 있습니다.

자율 주행 ai 주제에 대한 동영상 보기

여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!

d여기에서 일론 머스크가 말하는 자율주행과 AI – 자율 주행 ai 주제에 대한 세부정보를 참조하세요

2020년 12월 2일, 일론 머스크가
business insider의 모회사이자
Golden Steering wheel 주최사인
Axel springer CEO Mathias Dopfner와 인터뷰를 진행했습니다.
일론이 말하는 자율주행과
현 인류에게 가장 중요하다고 생각하는 것이 왜 인공지능인지
그의 이야기를 들어봅시다.
테슬라의 주가가 주당 880달러를 넘어섰습니다.
시가 총액으로는 곧 1조달러 클럽에 가입할 기세인데
캐시우드가 제시했던 2024년 목표주가 중
배터리 개선 및 공장 효율성을 개선해 생산 효율성을 높이지 않고
자율주행 네트워크 출범에 성공한다면의 시나리오상
테슬라의 목표주가는 주식 분할 후 기준으로 주당 3천달러인데요
이를 연 8% 할인율로 4년을 미리 당겨 계산하면 주당 2,205달러가 나옵니다.
자율주행에 실패하고 생산력을 높였을 경우는 마찬가지로 계산하면 주당 500달러죠.
시장은 이미 테슬라의 자율주행 성공에 베팅하고 있습니다.
이번 인터뷰를 지켜보면 일론은 확고한 자신감을 보이고 있네요.

* 이번 인터뷰 영상은 2020년 12월 2일자 영상이라 더 빨리 올렸어야했는데
저희가 유튜브 복귀가 늦어져서 이제야 올리네요 ㅠ
하지만 꼭 봐야할 중요한 영상이라 생각해 이렇게 작업해서 올립니다!
시청해주셔서 감사드려요!
시사, 경제, 투자의 올바른 정보 : https://bit.ly/36dYLmN

자율 주행 ai 주제에 대한 자세한 내용은 여기를 참조하세요.

AI가 만든 초현실적 가상세계, 자율주행차 개발 속도 높여줄까

자율주행 자동차 개발은 투입되는 돈과 노력에 비해 성장 속도는 더딘 사업이다. 이미 오랫동안 막대한 노력과 수십억 달러가 투자됐지만 이 기술은 …

+ 여기를 클릭

Source: www.technologyreview.kr

Date Published: 10/2/2022

View: 1246

자율주행 자동차의 인공지능 – KoreaScience

자율주행 자동차는 기본적으로 ‘인지-판단-제어’. 의 3단계를 거치면서 작동하게 된다. 인지단계에서는. 카메라·라이더(LiDAR)·레이더(RADAR) 등의 센서.

+ 여기에 표시

Source: www.koreascience.or.kr

Date Published: 12/19/2022

View: 3603

자율주행차와 인공지능

자율주행차에 장착된 센서에서 수집된 각종 정보를 IoT를 지원하는 클라우드 컴퓨팅 환경으로 보내고, 빅데이터 기술을 사용해 운행 패턴과 도로상황을 분석한 다음에 해당 …

+ 여기에 보기

Source: www.autoelectronics.co.kr

Date Published: 7/16/2022

View: 3437

[인터뷰] 자율주행에 AI 적용이 어려운 2가지 이유

[테크월드=선연수 기자] 자율주행 기술을 연구하는 사람은 자율주행차의 미래를 어떻게 바라볼까? 충북대학교 스마트카연구센터에는 7명의 교수진과 …

+ 자세한 내용은 여기를 클릭하십시오

Source: www.epnc.co.kr

Date Published: 1/22/2021

View: 9198

자율주행 AI 운전능력 평가기법 및 모형개발에 관한 연구 Ⅲ

그러나 실. 제도 자율주행차의 상용화 전 면허 발급 여부를 두고 평가를 내릴 때는 충돌여부뿐 아. 니라 다른 항목도 같이 고려해야 할 것으로 판단된다. 첫째로 현재 도로 …

+ 여기에 자세히 보기

Source: www.koroad.or.kr

Date Published: 8/25/2021

View: 7775

자율주행차는 얼마나 윤리적인가① – 한국일보

… AI기술이 개발되면 역시 이에 따른 역기능, 부작용, 윤리 문제가 함께 발생할 수 있다. 따 – 안전기술구글레벨자율주행윤리대한도로고리상용화.

+ 여기에 표시

Source: m.hankookilbo.com

Date Published: 10/5/2022

View: 9823

AI 인공지능 자율주행 자동차 | 장문철 | 앤써북 – 교보문고

만들기+데이터 수집 학습+딥러닝 with 라즈베리파이 | [ AI 인공지능 자율주행 자동차 만들기+데이터 수집 ㆍ 학습+딥러닝 with 라즈베리파이 ] 책은 다음 6단계의 …

+ 여기에 표시

Source: kyobobook.co.kr

Date Published: 6/19/2021

View: 6653

주제와 관련된 이미지 자율 주행 ai

주제와 관련된 더 많은 사진을 참조하십시오 일론 머스크가 말하는 자율주행과 AI. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.

일론 머스크가 말하는 자율주행과 AI
일론 머스크가 말하는 자율주행과 AI

주제에 대한 기사 평가 자율 주행 ai

  • Author: 백색나무
  • Views: 조회수 133,514회
  • Likes: 좋아요 2,501개
  • Date Published: 2021. 1. 9.
  • Video Url link: https://www.youtube.com/watch?v=N2grfw72YVY

AI가 만든 초현실적 가상세계, 자율주행차 개발 속도 높여줄까

자율주행 자동차 개발은 투입되는 돈과 노력에 비해 성장 속도는 더딘 사업이다. 이미 오랫동안 막대한 노력과 수십억 달러가 투자됐지만 이 기술은 여전히 시험 단계에 머물러 있다.

하지만 이러한 상황을 개선할 수 있다고 자신하는 사람이 있다.

바로 와비(Waabi) 창업자 라퀼 어타슨(Raquel Urtasun)이다. 어타슨은 자율주행 자동차 개발에 진척이 없자 싫증을 느끼고, 4년 간 몸담았던 승차호출 서비스 회사인 우버를 떠나 지난해 와비를 세웠다. 현재 자율주행 자동차 관련 실무를 보는 동시에 토론토 대학 교수도 겸직 중인 그녀는 “현시점을 기준으로 자율주행에 대한 기존의 접근 방식들은 진전이 너무 느리다”며 “이전과는 근본적으로 다르게 접근해야 한다”고 창업 동기를 밝혔다.

최근 와비는 어타슨이 자율주행 자동차 개발 속도를 획기적으로 단축할 수 있다고 믿는 새로운 해결책을 내놓았다. 바로 ‘실차’ 테스트를 포기하는 것이다.

조금 더 자세히 설명해 보면 이렇다.

지난 여섯 달 동안 와비는 ‘와비 월드(Waabi World)’라는 극사실적 가상환경(super-realistic virtual environment)을 구축해왔다. 이들은 실제 자동차로 인공지능(AI) 운전자를 훈련시키는 대신 시뮬레이션 내에서 가능한 모든 상황을 구현하려고 한다. 최종 개발 단계 전까지는 실제 도로에서 실제 차량을 대상으로 한 AI 테스트도 하지 않아 시간을 단축하겠다는 계획이다.

문제는, AI가 실제 도로처럼 혼란스러운 상황에 대처하는 법을 배우려면 현실에서 당면할 만한 모든 사건에 미리 노출되어야 한다는 점이다. 자율주행 자동차 회사들이 지난 10년 동안 세계 곳곳에서 수백만 킬로미터를 주행한 이유가 바로 이 때문이다. 크루즈(Cruise)나 웨이모(Waymo) 등 몇몇 기업은 미국 내 한적한 도시 환경에서 자율주행 자동차 주행 테스트를 시작했다. 하지만 여전히 진행이 더디다. “왜 이런 무인 자동차들이 현실 세계에서 더 자주 보이지 않을까? 왜 그 차량들은 상용화되지 못했을까?” 어타슨은 묻는다.

와비는 도로 주행 테스트를 하지 않을 뿐만 아니라 아직 완성된 차조차 없지만, 그럼에도 불구하고 어타슨은 대담한 주장을 펼치고 있다. 실제 거리에서 소프트웨어를 시험하는 데 드는 비용을 크게 절약함으로써, 그녀는 와비가 경쟁사보다 더 빠르고 저렴하게 인공지능 운전자를 개발하여 산업 전반에 공급할 수 있을 것이라고 생각한다.

가상 운전자

그 전에도 자율주행 소프트웨어를 시험할 목적으로 가상 현실 세계를 만들려는 시도는 있었다. 수년 전부터 시뮬레이션은 자율주행 자동차 업계의 중추였다. 그러나 문제는 시뮬레이션만으로 최종적인 기술 장벽을 충분히 극복할 수 있느냐는 것이다. 아마존이 2020년 인수한 자율주행차 스타트업 죽스(Zoox)의 공동창업자이자 CTO인 제시 레빈슨(Jesse Levinson)은 “아직 아무도 자율주행차를 위한 가상공간(Matrix)를 구축하지 못했다”라고 말했다.

실제로 현재 거의 모든 자율주행차 회사가 어떤 형태로든 시뮬레이션 기법을 채택하고 있다. 이들은 실제 도로에서 마주칠 수 있는 것보다 더 다양한 시나리오에 AI를 노출시키면서 테스트 진행 속도를 높이고 비용도 절감한다. 그러나 대부분은 시뮬레이션을 실제 테스트와 결합하여 실제 주행과 가상 주행을 오가는 방식을 사용한다.

와비 월드는 시뮬레이션을 한 단계 더 발전시킨 형태이다. 와비 월드는 운전 강사이자 가상공간 매니저 역할을 하는 AI에 의해 생성되고 제어된다. 이러한 AI는 AI 운전자의 약점을 파악한 후, 취약한 부분을 테스트하기 위해 가상 환경을 재정비한다. 또한 와비 월드는 동시에 여러 AI 운전자에게 서로 다른 능력을 가르친 뒤 이들을 단일한 수행능력(skill set)으로 결합한다. 어타슨에 따르면, 이 모든 것은 인간의 도움 없이 쉬지 않고 이어진다.

돌발 상황

자율주행 자동차 회사들은 시뮬레이션을 통해 차량 통제 신경망이 어떻게 돌발 상황에 대처하는지 테스트한다. 자전거 배달원이 급작스럽게 끼어드는 경우, 차량 색상이 하늘색이라 색깔로는 차체를 인식하기 어려운 경우 등의 다양한 상황이 그 예다. 신경망은 이 결과를 바탕으로 적절하게 적응해 나간다.

크루즈는 샌프란시스코 지역 내 특정 도로에 한해 완전자율주행차를 시험하기 시작했다. 이 회사에서 시뮬레이션 분야를 연구하는 시드 간디(Sid Gandhi)는 “실제 도로에서 돌발 상황을 제대로 시험하기 위해서는 수천 마일을 주행해야 한다”라고 말했다. 정말 드문 상황은 굉장히 낮은 확률로 발생하기 때문이다. 그는 “우리가 시뮬레이션으로 희귀한 상황에 대응하는 훈련을 할 수 있게 됨에 따라, 실제 주행 테스트에 대한 의존도가 점차 줄어들고 있다”고 덧붙였다.

크루즈는 소프트웨어를 업그레이드할 때마다 수십만 번의 시뮬레이션을 통해 소프트웨어를 테스트한다. 간디에 따르면, 크루즈는 앞으로 자동차 주행 중에 경험할 법한 까다로운 상황에 기초해 수천 개의 시나리오를 제작할 예정이다. 그리고 다양한 잠재적인 시나리오를 다루기 위해 세부적인 부분을 조정할 계획이다. 시뮬레이션을 더욱 사실적으로 만들기 위해 이들은 실제 자동차에서 촬영한 데이터도 사용할 것이다.

여기에 더해 엔지니어는 도로 배치를 바꾸고 차종을 교체하며 보행자 수를 변경할 수 있다. 마지막으로, 소프트웨어는 시뮬레이션에서 다른 차량들이 현실적인 반응을 보이도록 하기 위해 자율주행 알고리즘을 사용한다. 이러한 합성 데이터로 소프트웨어를 테스트하는 것은 실제 데이터를 사용하는 것보다 180배 빠르고 수백만 달러 더 저렴하다고 간디는 주장했다.

간디는 크루즈가 샌프란시스코 외 미국 도시들을 복제하여 만든 가상 거리에서도 소프트웨어를 실험하고 있다고 밝혔다. 실제 자동차가 해당 도시의 도로를 달리기에 앞서 시뮬레이션으로 구현된 곳에서 자율주행 소프트웨어를 테스트하기 위해서다.

다른 회사들도 자율주행을 위한 AI 훈련과 테스트에서 시뮬레이션이 중요하다는 데 동의한다. “여러 가지 면에서 실제 운전보다 시뮬레이션이 더 유용하다.”라고 레빈슨은 말한다.

영국에 본사를 둔 자율주행 자동차 회사인 웨이브(Wayve)도 시뮬레이션 테스트와 실제 주행 테스트를 번갈아 수행하고 있다. 런던 번화가를 달리는 이 테스트는 항상 차 안에 사람이 탄 상태로 진행된다. 웨이브의 수석 과학자인 제이미 쇼튼(Jamie Shotton)은 시뮬레이션을 통해 테스트 비용을 줄여 자율주행차 개발을 가속화할 뿐 아니라 테스트의 신뢰성을 높일 수 있다는 생각이다. 시뮬레이션을 통해 반복적으로 테스트를 시행할 수 있기 때문이다. 그는 “성공적인 시뮬레이션의 핵심은 현실성과 다양성을 늘리기 위해 끊임없이 노력하는 것”이라고 말했다.

그럼에도 불구하고, 와비는 다른 회사에서 하는 것보다 더 많은 일들을 시뮬레이션만으로 할 수 있다고 주장한다. 와비는 크루즈와 마찬가지로 라이다(lidar) 및 카메라 등의 실제 센서로 데이터를 수집하여, 이를 기반으로 현실을 모방한 디지털 복제 환경을 만든다. 그런 다음 가상 세계를 최대한 사실적으로 만들기 위해 AI 운전자가 보는 센서 데이터를 시뮬레이션으로 구현한다. 카메라를 교란시키는 반짝이는 표면 반사 현상이나, 라이다를 무용지물로 만드는 배기가스와 안개가 여기에 포함된다.

하지만 와비 월드의 핵심은 전지적인(god-like) 운전 강사 AI라고 할 수 있다. 이 가상 세계에서는 한 AI 운전자가 다양한 환경을 탐색하는 법을 배우면, 또 다른 AI가 취약점을 찾아 이를 테스트하는 구체적인 시나리오를 만들어낸다.

실제로 와비 월드에서는 두 AI에게 경쟁을 시킨다. 이때 운전 강사 AI는 실패 확률이 높은 맞춤형 과제(tailor-made challenges)를 선별하여 운전자 AI에게 제시하며, 반대로 운전자 AI는 이 문제를 해결하기 위해 노력한다. 어타슨은 운전자 인공지능이 점점 더 향상되면서 실패 사례를 찾기 더 어려워지고 있다며, “결점을 찾기 위해서는 수백만, 어쩌면 수십억 개의 시나리오에 노출시켜야 할 것”이라고 강조했다.

어타슨은 “수많은 시뮬레이션을 통한 AI 학습이 인간이 새로운 기술을 배우는 과정을 더 잘 모방한다고 생각한다”면서 “새로운 경험을 할 때마다 우리 뇌 신경망은 새롭게 구성된다”라고 설명했다.

시뮬레이션 상에서 AI를 자기 자신 또는 상대편과 수없이 많이 대결시켜 훈련하는 방법은 매우 강력한 기술이 되었다. 이는 구글의 AI 자회사 딥마인드(DeepMind)가 AI에게 바둑과 스타크래프트 게임을 훈련시킬 때 사용한 방법이기도 하다. 딥마인드의 엑스랜드(XLand)와 오픈에이아이(OpenAI)의 하이드앤시크(Hide & Seek)와 같은 가상 놀이터에서 AI봇이 학습하는 방법도 이와 동일한 원리이다. AI는 시행착오를 통해 기본적이면서도 일반적인 기술을 습득한다.

하지만 시뮬레이션 속에서 AI가 자유롭게 활동할 수 있게 함으로써 생기는 단점도 있다. AI가 현실에 없는 시뮬레이션의 허점을 이용해 문제를 해결하는 법을 배울 수 있기 때문이다. 실제로 오픈에이아이의 하이드앤시크 봇은 다른 사람들을 피하거나 찾기 위해 서로 협력하는 방법을 시뮬레이션 속에서 스스로 학습했지만, 한편으로는 봇들이 허공으로 뛰어오르거나 벽을 통해 물체를 통과시키는 등 물리학을 거슬러 움직이는 결함이 발견되기도 했다.

와비는 AI 운전자의 잘못된 행동 학습을 방지하기 위해 시뮬레이션이 충분히 정확한지 확인해야 할 것이다. 그렇지 않으면 신경망은 계속해서 가상 세계와 현실 세계 사이의 불일치를 활용하는 방법을 터득할 것이다. 어타슨은 말한다. “인공지능도 편법을 쓸 줄 안다.”

어타슨은 와비가 실제 주행 환경과 가상 주행 환경 사이의 차이를 측정하여, 이 간극을 가능한 한 최소화하는 방법을 개발했다고 주장한다. 그녀는 이 기술에 대한 내용을 아직 자세히 밝히지는 않았지만, 와비가 이 연구를 발표할 계획이라고 말했다.

와비가 시뮬레이션만으로 어디까지 개선될 수 있는지는 와비 월드가 현실과 얼마나 닮았느냐에 달려있다. “시뮬레이션이 점차 개선되고 있기 때문에, 시뮬레이션에서 배울 수 없는 현실 세계의 사례가 점점 더 줄고 있다. 하지만 완전히 없어지기까지는 오랜 시간이 걸릴 것이다.” 레빈슨이 말했다.

웨이브의 쇼튼은 “시뮬레이션과 실제 테스트 사이에서 건전한 균형을 유지하는 것이 중요하다”면서 “실제 하드웨어와 관련된 모든 복잡성을 고려하여 자율 주행 자동차가 도로 위에서도 안전하게 운행될 수 있도록 하는 것이 자율주행 기업의 궁극적인 목표”라고 강조했다.

어타슨은 이 의견에 대체로 동의한다. 그녀는 실차 검증은 여전히 필요하지만 그 비중은 점점 줄어들 것으로 기대했다.

어찌 되었든 어타슨은 현 상태가 이대로 지속될 수 없다는 입장이다. “기존 업계는 방법의 개선 없이 계속해서 같은 길을 걷고 있다.그 과정을 가속화할 혁신이 필요하다. 우리의 새로운 접근법으로 계속해서 나아가야 한다.”

자율주행차와 인공지능

자율주행차와 인공지능

2016년 07월호 지면기사 / 글│박 재 호 _ [email protected]

자동차 분야에서 인공지능은 어떤 영향을 미치고 있을까. 최근 들어 인공지능이 다시 부각되는 이유는 무엇일까. 빅데이터와 클라우드 기술이 발전함에 따라 과거에 비해 수집된 자료량이 엄청나게 늘어났을 뿐만 아니라 컴퓨터 자체의 성능도 날이 갈수록 좋아지고 있기 때문에 방대한 자료 처리에 필요한 계산량을 뒷받침하는 것이 가장 큰 요인으로 볼 수 있다. 본고에서는 운전자의 개입 없이 운행이 가능한 자율주행차를 중심으로 현재까지 기술발전 상황을 정리한다.

이세돌 九단과 알파고의 대국 이후에 인공지능에 대한 관심이 급격하게 높아지고 있다. 딥러닝, 강화 학습, 과적합(overfitting)과 같이 일상에서 듣기 어려운 전문용어가 포함된 기사가 일간지에 실리고 있으며, 다양한 분야에서 인공지능을 이용한 응용 사례가 소개되고 있다. 인공지능 관련 연구개발 인력이 부족해서 기업 사이에 치열한 인재 쟁탈전이 벌어지고 있다는 소식도 들려온다. 정부는 물론 민간에서도 집중적으로 인공지능 관련 분야에 대한 투자를 집행하고 있다.

최근 들어 인공지능이 다시 부각되는 이유는 무엇일까? 빅데이터와 클라우드 기술이 발전함에 따라 과거에 비해 수집된 자료량이 엄청나게 늘어났을 뿐만 아니라 컴퓨터 자체의 성능도 날이 갈수록 좋아지고 있기 때문에 방대한 자료 처리에 필요한 계산량을 뒷받침하는 것이 가장 큰 요인으로 볼 수 있다. 또 전통적인 산업에 IT 기술이 접목되면서 복잡한 작업을 처리할 수 있는 소프트웨어 기술 향상도 다른 요인으로 볼수 있다. 융복합 기술의 발전은 생산 자체를 고도화할 뿐만 아니라 제품에도 부가가치를 더하는 촉매로 작용하고 있다. 인공지능이야말로 차세대 산업의 주축이 될 것으로 기대하는 사람도 많다.

그렇다면 자동차 분야에서 인공지능은 어떤 영향을 미치고 있을까? 본고에서는 운전자의 개입 없이 운행이 가능한 자율주행차를 중심으로 현재까지 기술발전 상황을 정리한다.

1. 개괄

스마트폰 기반의 교통 서비스를 제공하는 우버(UBER)의 예를 들면 자사 서비스에 인공지능 개념을 적극적으로 활용해 차량이 필요한 수요자와 차량을 운행하는 공급자(개인/법인) 사이에 원활한 연결을 제공함으로써 정보 비대칭성을 줄이고(지역과 시간대 별 차량 수요와 공급 관련) 자원의 활용을 극대화하고 있다. 여기서 한 걸음 더나가 우버는 운전사의 인건비를 줄이고 차량 가동률을 높이는 동시에 시간에 구애받지 않는 진정한 24×7×365 서비스를 목표로 자율주행차 기술에 집중하고 있다. 차량 소유시대의 종말에 대비한 자동차 업계의 관심까지 합쳐지면서 자율주행차에 대한 연구는 더 이상 먼 미래의 이야기가 아니며 현재 진행형으로 봐도 틀림없겠다.

구글과 같은 회사는 플랫폼을 확장해나가는 관점에서 차량에 주목하고 있다. 차량은 기존 웹(검색 엔진)과 스마트폰(안드로이드)에 이어 사용자의 데이터를 축적하고 이를 활용하는 새로운 플랫폼으로 떠오르고 있고, 그 중에서도 가장 강력한 애플리케이션이 바로 자율주행 기능으로 보면 틀림없다. 자율주행차에 장착된 센서에서 수집된 각종 정보를 IoT를 지원하는 클라우드 컴퓨팅 환경으로 보내고, 빅데이터 기술을 사용해 운행 패턴과 도로상황을 분석한 다음에 해당 정보를 내려 받아 안전한 운전이 가능하게 만든다.

테슬라 같은 경우에는 자동차의 아이폰화라는 기치를 내걸고 소프트웨어 업그레이드 만으로 제한적인 자율주행(고속도로 대상)이 가능하게 만들어 운전자들을 깜짝 놀라게 만들었다. 또한 소프트웨어 업그레이드로 소환(summon) 기능을 제공해 집에 도착해서 내리면 차량이 저절로 운전해서 차고로 들어간 다음에 시동이 꺼지고, 운행이 필요할 때 집 앞에 있으면 차량이 자동으로 시동을 걸고 차고 문을 열고 나와서 집앞으로 나올 수 있게 만들었다.

그렇다면 사람들이 자율주행차에 관심을 기울이는 이유는 무엇일까? 다음과 같은 사안을 생각해보자.

– 안전성: 사람 운전자와는 달리 과속운전, 난폭운전, 졸음, 음주, 스마트폰 사용에 영향을 받지 않는다. 교통법규를 정확하게 지키기 때문에 자율주행 차량만 운행될 경우 사고 가능성이 극도로 낮아진다.

– 효율성: 네트워크에 항상 물려있기 때문에 도로 정보를 활용해 정체 구간을 회피하며, 주변 차량과 협력해 차간 거리를 유지함으로써 도로의 처리량을 극대화한다.

또한 군집주행 기술을 활용해 대량의 물류를 신속하게 운송할 수 있다.

– 편의성: 운전자의 피로를 줄이며, 차량 이동 중에도 휴식, 여가 활용, 업무가 가능해진다. 또한 정상적인 운전이 힘든 노약자와 장애인을 배려할 수 있다. 차량 공유 서비스와 결합할 경우 차량의 대수를 줄일 수 있어 주차난과 같은 기반 시설 부족 현상에 따른 시간 낭비도 완화할 수 있다.

이렇듯 장점이 많은 자율주행차를 지탱하는 기술은 무엇일까? 하드웨어(센서, CPU/GPU)와 소프트웨어(인공지능) 관점에서 바라볼 필요가 있다.

2. 자율주행 차량의 눈과 귀: 센서

사람은 시각과 청각을 활용해 운전 중에 도로상황을 파악하는 반면에 자율주행차는 다양한 센서에 의존해 경로를 결정하고 사고를 회피해야 한다. 쉽게 말해 센서는 자율주행차의 눈과 귀라고 생각할 수 있다. 자율주행차는 크게 다음과 같은 센서를 탑재한다.

Radar

레이더는 무선신호를 방출한 다음 부딪혀서 돌아오는 신호를 찾는 원리로 동작하는 가장 범용적으로 사용되는 센서로 단거리, 중거리, 장거리 특성을 모두 갖추고 날씨에 무관하게 동작한다. 예를 들어, 적응형 순항제어 장치는 차량의 200 m 전방을 주시하며, 차량을 추적하며 가감속을 지령해 차량사이의 간격을 유지한다. 또한 레이더는 사각지대 감지와 차선이탈 경보 기능을 제공한다. 초기에는 운전자에게 임박한 문제를 음성으로 경고하는 선에서 그쳤지만, 자율주행형 차량에서는 문제를 회피하기 위해 운전자의 제어권을 자신이 가져간다. 레이더는 움직이는 물체가 산란된 파형의 주파수를 바꾼다는 도플러 효과를 이용해 정지된 물체를 추적할 수 없으며, 금속이 아닌 다른 재질의 물체를 감지하기 힘들다는 단점이 존재한다.

Lidar(Light Detection And Ranging)

라이더는 지상의 형태와 표면 특성에 대한 지리적인 정보를 정밀하게 제공한다.

원래 라이더는 지상, 얕은 물가를 대상으로 밀도가 높고 정확한 데이터를 수집하기 위해 만들어졌다. 일반적으로 비행기, 지상, 이동 차량에서 넓은 지역에 걸쳐 빠르게 여러지점(point)을 수집하며, 높은 정밀도와 풍부한 지점 밀도라는 특성 때문에 철도, 도로, 교량, 빌딩, 방파제, 해안선에 대한 정교하고 현실적인 3차원 표현을 가능하게 한다.

라이더는 레이저를 발사해서 감지되는 반향을 센서가 잡아내는 원격 감지기술을 일컫는다. 이런 정보는 물체에 대한 범위 또는 거리를 계산하는 데 쓰인다. 언뜻 보면, 라이더는 레이더와 비슷하지만 별개의 레이저 파동에 기반한다. 목표 객체의 3차원 좌표(예: 위도, 경도, 고도)는 발사한 레이저 파동과 반환된 레이저 파동 사이의 시간, 파동이 발사된 각도, 센서의 절대 위치를 사용해 계산된다. 하지만 라이더는 레이더와는 달리 구름, 비, 눈, 짙은 연무를 통과할 수 없다는 단점이 존재한다.

라이더는 대기 조성, 구조, 구름, 연무등을 연구하기 위해 고정된 위치의 지상 장비로 개발됐으며, 세상의 날씨 관측에 강력한 도구로 자리잡아 왔다. 또한 교량, 빌딩, 해안과 같은 특정 목표물을 탐색하기 위해 고정된 위치에 장착한 다음에 상황의 변화를 추적한다. 현대적인 내비게이션과 위치측정 시스템을 위해 라이더는 이동형 차량에 탑재돼 철도, 도로, 공항, 빌딩, 배관, 항만, 해안선 등 아주 정밀한 지도를 제작하는데 사용되기도 한다.

이렇게 40년 이상 축적된 기술을 바탕으로 라이더는 자율주행차 센서 중에서도 핵심을 차지하고 있다. 최근 자율주행차에서 많이 사용 중인 벨로다인 HDL(High-Definition Lidar)은 64개의 회전하는 레이저를 사용해 초당 220만 개의 지점을 수집하며, 이런 정보를 토대로 주변의 가상 모델을 생성한다. 레이더 대신 라이더를 사용하는 한 가지 이유는 레이저의 고에너지, 단파장 레이저가 비금속 표면(예: 인간과 나무 전신주)에 더 잘 반사되기 때문이다. 기존 시스템과 달리, 벨로다인 HDL은 조밀하게 레이저를 발사해 눈이나 비가 내리는 환경에서도 빈틈을 찾아 주변 환경을 파악할 수 있다.

Camera(일반/3D)

특정 이미지를 개별 픽셀로 인식해 숫자로 변환하는 장비로 물체에서 반사되는 빛을 광학 센서가 잡는 원리로 동작한다. 일반 카메라는 깊이를 인식하지 못하는 반면에 3D카메라는 렌즈를 두 개 사용하거나 다른 센서의 도움을 받아 깊이를 인식할 수 있다. 카메라는 다른 센서에 비해 높은 해상도를 자랑해 정확한 배경/물체 인식이 가능하다는 장점이 있는 반면에 빛의 반사를 이용하므로 주변 환경에 크게 영향을 받는 단점도 있다.

카메라를 반드시 사용해야 하는 상황이 존재한다. 고정된 도로 표지판의 경우에는 GPS와 도로 지도를 사용해 충분히 방어가 가능하지만 긴급 도로공사와 같은 임시표지판의 경우에는 카메라가 없다면 내용을 인식하지 못하는 문제가 발생한다. 또한 색상을 인식할 수 있어 신호등이나 브레이크 등을 판단하기에 적합하다.

Ultrassonic

음파(50 KHz 주변 초음파)를 보내 되돌아오는 반향을 듣는 장비로 음파가 미치는 주변 지역에 위치하는 물체를 감지할 수 있다. 잡음과 반사파의 반향으로 인해 매우 정밀하지는 않지만 보조적인 수단으로 활용이 가능하다. 자율주행차가 아닌 일반 차량에는 주로 후방 감지 센서와 측면 감지 센서로 사용되고 있으며, 자율주행차의 경우 저속에서 벌어지는 근접 이벤트(예: 병렬주차와 저속충돌회피)를 감지하기 위해 사용된다. 차량이 사람이 걷는 속력보다 빠르게 움직일 경우 탑재된 초음파 센서는 제대로 동작하지 않는다.

GPS(Global Positioning System)

GPS는 중궤도를 도는 24개 이상의 인공위성에서 발신하는 마이크로파를 수신기가 수신해 위치 벡터를 계산하는 방식으로 동작한다. 세 개 이상의 GPS 위성이 송신한 신호를 수신해 위성과 수신기의 위치를 결정한다. 위성에서 송신된 신호와 수신기에서 수신된 신호의 시차를 측정하면 위성과 수신기의 거리를 구할 수 있는데, 송신된 신호에 위성의 위치가 들어 있어 삼각 측량법을 활용해 정확한 수신기의 위치를 계산한다.

GPS를 사용할 경우 현재 이동 중인 자율주행차의 정확한 위치를 구한 다음에, 미리 구축된 정밀한 도로 지도 데이터베이스를 토대로 정적인 주변 상황을 파악할 수 있다. 기상 상태나 주변 장애물에 영향을 받지 않는 장점이 있다. 하지만 터널, 교량 아래, 지하도에 들어설 경우 GPS를 사용할 수 없는 상황이 발생하기 때문에 100% GPS를 신뢰할 수 없다는 문제점이 있다. 차량의 속도 정보를 사용해 현재 위치를 추정할 수 있는 추측항법시스템으로 이런 문제점을 해결한다.

적외선 LED와 광센서

적외선 LED와 광센서는 비 탐지/와이퍼 동작과 같은 분야에 사용되며, 충돌회피를 위해 차량 외부에 장착돼 상향등의 조명 범위를 벗어난 물체를 감지하기 위해 사용되기도 한다. 또한 에어백의 전개 속력을 조절하기 위해 탑승자의 위치를 파악하거나 운전자의 눈꺼풀을 감지해 졸음운전을 막기위해 사용될 수도 있다.

자율주행차의 두뇌: CPU와 GPGPU

사람의 감각기관에서 들어오는 전기적인 신호는 두뇌에서 처리한다. 마찬가지로 차량의 센서에서 들어오는 각종 정보 역시 CPU와 GPGPU(General Purpose GPU)에서 처리하게 된다. CPU는 소프트웨어의 실행이 이뤄지는 핵심이며, 외부에서 정보를 입력받고, 기억하고, 컴퓨터 프로그램의 명령어를 해석하고 연산하고 외부로 출력한다. 각종 전자부품을 단일 칩에 내장한 마이크로프로세서 형태로 만들어지면서 부터 CPU는 복잡한 범용 컴퓨터는 물론이고 가전제품이나 차량에도 탑재되기 시작했다. 또한 중앙처리장치의 한 블록인 코어를 여러 개 탑재한 칩이 등장하면서 단일 코어의 성능 한계(클록 주파수의 한계, 슈퍼 스칼라 아키텍처의 한계)를 극복해 나가는 추세이다.

CPU는 순차적인 직렬 처리에 최적화된 멀티코어를 내장하고 있기 때문에 일반적인 작업을 수행하기에 충분하다. 하지만 복잡한 수치 연산을 위한 병행(parallel) 작업이 필요한 경우에는 문제가 발생한다. 물론 단일 CPU 내부의 코어 수를 늘리거나 네트워크로 연결된 여러 컴퓨터를 사용해 작업하는 방법도 존재하지만 고려해야 하는 사항이 많아 현실적으로 쉽지 않다.

기존 임베디드 부문에서는 신호처리를 빠르게 하기 위해 특화된 칩인 DSP(Digital Signal Processor)가 많이 사용됐는데, 실시간으로 아날로그 신호를 표현하는 복잡한 수치 데이터를 빠르게 처리하기 위한 기능이 탑재돼 있었다. 하지만 DSP는 1차원(오디오)이나 2차원(이미지) 데이터는 어느 정도 실시간으로 처리할 수 있었지만, 자율주행차에서 요구하는 복잡한 2차원(높은 해상도나 복잡한 영상인식)이나 3차원 데이터는 처리하기가 곤란하다는 문제가 존재한다.

따라서 CPU와 DSP의 문제점을 해결하기 위해 뭔가 해법이 필요하다. 게임을 많이 하는 사람들은 GPU에 대해 이미 잘 알고 있을 것이다. GPU는 CPU에서 그래픽과 관련된 각종 연산 기능을 가져와서 전용으로 처리하게 만든 칩으로, 초기에는 2차원 가속(비트맵 복사와 이동) 기능을 중심으로 화면 출력을 빠르게 하는 쪽에 집중했지만, 점차 3차원 가속을 위한 각종 수치 연산 기능을 강화하는 쪽으로 발전해나갔다. 이를 위해 병렬처리용으로 특별히 설계된 수천 개에 이르는 소형 코어를 탑재하고 있으며, 계산이 필요한 작업을 CPU로부터 가져와서 빠르게 처리한다. GPU는 앞서 언급한 CPU와 DSP의 제약점을 극복하기 위한 훌륭한 대안으로 자리 잡고 있다.

현대적인 GPU는 기본적으로 SIMD(Single Instruction Multiple Data)계산 방식에 기반한다. 이런 유형의 GPU를 GPGPU라 부른다. GPGPU는 SIMD 계산 유닛으로 여러 독립적인 데이터에 대한 병행연산을 수행할 능력을 갖추고 있다. 현대적인 GPGPU는 수천 개에 이르는 병행 스레드를 띄우고 모든 스레드를 배치 방식으로 처리한다. 이런 특성으로 인해, GPGPU는 복잡한 대규모 DSP 문제를 여러 개의 작은 수치 문제로 쪼개고 한 번에 처리한다. 따라서 전반적인 시간 복잡도를 엄청나게 줄일 수 있다. 예를 들어, 두 M×M 행렬을 곱하는 작업은 출력 데이터 의존성 없이 GPGPU 장비에서 M×M 병행 스레드를 처리할 수 있다. 이와 같은 특성으로 인해 전통적인 CPU나 DSP와 비교해 상당한 성능 이익을 얻을 수 있다.

GPGPU는 화면과 중립적인 계산 전용 프로그래밍 인터페이스를 제공한다. 몇가지 예를 정리하면 다음과 같다. ▶CUDA: CUDA는 NVIDIA GPU를 프로그래밍하기 위한 표준 인터페이스다. 2006년에 처음 등장한 이후 엄청나게 많이 판매된 하드웨어 기반을 토대로 다양한 애플리케이션 제작에 사용돼 왔다. CUDA는 윈도우, 리눅스, MacOS X를 지원하며 C/C++ 프로그래밍 언어로 개발이 가능한 라이브러리를 제공한다. ▶OpenCL: OpenCL은 원래 애플이 제안한 업계 표준으로 CPU, GPU, DSP 등의 프로세스로 이뤄진 이종 플랫폼에서 실행되는 프로그램을 작성할 수 있게 한다.

로열티가 없는 OpenCL은 비영리 기술 컨소시엄인 크로노스에서 관리하고 있으며, 2008년 11월에 1.0 명세서가 완성됐다. AMD는 물론이고 NVIDIA에서도 OpenCL을 지원한다. ▶C++ AMP(C++ Accelerated Massive Parallelism): C++ AMP는 GPU와 같은 데이터 병행 하드웨어에서 컴파일돼 수행되는 프로그램을 쉽게 작성하게 도와주는 C++ 라이브러리다. C++ AMP는 마이크로소프트에서 개발한 개방형 명세이며, DirectX 11에 구현돼 있다. 마이크로소프트 윈도우 운영체제에서 동작하지만 향후 다른 플랫폼에도 이식될 예정이다(예: 인텔이 만든 Shevlin Park). ▶OpenACC(Open Accelerators): 크레이, NVIDIA 등이 개발한 병행 컴퓨팅을 위한 프로그래밍 표준으로 이기종 CPU/GPU 시스템에서 병행 프로그래밍을 단순하게 만들어준다. OpenMP와 유사하게 C, C++ 코드에 애노테이션(컴파일러 지시자)을 붙여 가속해야 할 영역을 지정한다.

GPGPU를 사용하는 주요 분야를 정리하면 ▶디지털 필터: 다차원 디지털 필터설계 ▶레이더 시그널 재구성과 분석: 실시간으로 엄청나게 많은 3D나 4D 데이터 샘플 재구성 ▶자율주행차 제어를 위한 3D이미지 인식 ▶초음파, X레이, MRI, CT와 같은 2D 또는 3D 영상 시그널 진단 등 의료 영상 처리 등이다.

4. 인공지능: 기계학습과 딥러닝

자율주행차에서 인공지능 기술을 바로 논하기에 앞서, 우선 인공지능을 응용하는 기능부터 짚고 넘어갈 필요가 있다. 앞서 GPGPU를 사용하는 주요 분야를 설명할 때 자율주행차 부문에서 차량 제어를 위한 3D 이미지 인식을 언급했는데, 조금 더 세부적으로 파고 들어가면 ▶보행자 충돌 경고(차량 운행 도중에 등장하는 보행자를 감지하고 회피하는 기능) ▶차선이탈 경고(차량 운행 도중에 차선이탈을 감지하고 경보하는 기능) ▶전방충돌경보(차량 운행 도중에 앞에 나타난 차량이나 장애물을 감지하고 경보하는 기능) ▶속도제한 경고(운행 중 속도 제한 표지판을 읽어 경보하는 기능) ▶교통신호 감지(각종 신호등과 표지판을 읽어 표시하는 기능) 등이다.

상기 기능을 구현하기 위해 일반적인 영상처리 알고리즘을 사용할 수도 있지만, 최근에는 맥락에 무관하고 정확도를 높이기 위한 방안으로 인공지능을 도입하는 추세다. 즉 알고리즘을 먼저 만들고 데이터를 넣어 가공하는 대신 데이터를 넣어 알고리즘을 만들어내는 방법이다. 이렇게 되면 매번 상황에 맞춰 알고리즘을 수정하지 않고 데이터를 추가로 넣어 학습하는 방법으로 문제를 해결할 수 있다.

즉 기계학습을 도입해 수많은 데이터를 토대로 정교한 패턴 인식과 분류 작업을 수행할 수 있게 됐다. 그렇다면 과거에는 어떤 문제가 있었기에 기계학습을 적용하기 어려웠을까?

90년대 유행했던 인공신경망(Artificial Neural Network, ANN)은 역전파(back propagation) 방법이라는 최적화 기법이 도입되면서 전성기를 맞이한다. 하지만 인간의 두뇌를 흉내내 데이터를 처리한다는 이 멋진 개념에는 한 가지 치명적인 문제가 있었다. 바로 국소 최저치(local minima)였다. 복잡한 함수를 회귀(regression)/분류(classification)하려면 여러 신경망 단계가 필요하기 마련인데, 깊이가 깊어질 경우 매개변수(parameter) 학습과정에서 전역 최적값을 찾아내지 못하고 중간에 멈춰버리는 현상이 발생했다. 잘못된 최적화에서 벗어나려면 뭔가 획기적인 탈출구가 필요했는데, 2006년에 제프리 힌톤 교수가 해법을 제시할 때까지 답보 상태에 머물렀다.

여기서 해법은 바로 요즘 알파고 때문에 유명해진 딥러닝이다. 딥러닝은 국소 최저치라는 문제를 해결하기 위해 데이터의 전처리 과정을 도입해 비지도 학습법(unsupervised learning)으로 각 층을 손질한 다음에 이렇게 처리한 데이터를 여러 층으로 쌓아올려 최적화를 수행한다.

딥러닝의 성공 요인을 크게 다섯 가지로 정리할 수 있다.

▶비지도 학습방법: 앞서 언급했지만, 비지도 학습방법은 사람이 데이터에 의미를 부여하지 않고 컴퓨터가 스스로 군집(cluster)를 찾게 만든다. 이 과정에서 잡음을 줄이고 특이한 자료를 필터링하는 효과를 얻는다.

▶CNN(Convolutional Neural Network)의 진화: 기계학습은 데이터에서 직접 지식을 추출하도록 학습할 수도 있지만, 보통 중간 단계인 특징(feature) 추출을 거쳐 데이터에서 특징을 찍고 이를 사용해 지식을 추출하도록 학습한다. 사물을 인식하기 위해 2차원 이미지의 픽셀 값에서 먼저 특징적인 선이나 색 분포를 추출한 다음에 이를 기반으로 실제 사물을 분류하는 방법을 사용한다.

기계학습의 성능은 얼마나 좋은 특징을 추출하느냐에 달려 있다. 이는 이미지 처리, 음성인식, 필기체 인식, 자연어 분석 등 다양한 부분에 동일하게 적용되는 원칙이다. 딥러닝에서는 사람의 개입 없이 특징조차도 기계학습으로 뽑기 때문에 특징 추출과 학습 양쪽을 모두 기계가 처리할 수 있게 됐다.

▶RNN(Recurrent Neural Network)의 진화: 시간의 흐름에 따라 변화하는 시계열 데이터를 처리하기 위해 등장한 RNN은 매 순간마다 인공신경망 구조를 쌓아올리는 방식을 사용한다. 과거 RNN은 인공신경망이 너무 깊기 때문에 오래 전 데이터를 잊어먹는 현상으로 인해 학습이 어려운 문제가 있었는데, LSTM(Long-Short Term Memory)라는 게이트 유닛을 노드마다 배치하는 방법으로 이런 문제를 극복했다.

▶GPGPU의 등장과 학습 방법의 진보: 과거에는 엄청나게 복잡한 벡터 연산을 위해서 슈퍼 컴퓨터를 동원해야 했지만, 최근에는 GPGPU로 대표되는 병행 컴퓨팅에 필요한 기반이 일반화됨에 따라 누구나 복잡한 계산이 가능해졌다. 또한 빅데이터 시대가 도래하면서 천만 장의 고해상도 사진(ImageNet)과 엄청나게 많은 동영상 클립(유튜브)을 확보할 수 있게 됐다. 또한 인공신경망의 알고리즘적인 측면에서 비선형변환에 사용되는 ReLU(Rectified Linear Unit)의 개발도 한몫을 거들었다.

▶프레임워크의 오픈소스화: 카페(Caffee), Deeplearning4j, 구글의 텐서플로우(Tensorflow)와 같은 딥러닝을 가능하게 만들어주는 프레임워크가 오픈소스로 공개됨에 따라 프로그래머들이 마음만 먹으면 GPU를 장착한 PC에서 쉽게 프로그램을 만들고 테스트할 수 있게 됐다.

지금까지 자율주행차에 대한 기술적인 내용과 인공지능에 대한 사항을 간략하게 살펴보았다. 본고에서는 주로 이미지/동영상에 대해 집중했지만, 기계학습은 데이터의 유형에 중립적이므로 카메라 뿐만 아니라 다른 센서에서 들어오는 데이터 역시 충분히 처리가 가능하다. 실제로 자율주행차 업계의 리더들은 카메라는 물론이고 라이더에서 얻는 정보를 빅데이터 기술로 처리해 차량의 주변 환경을 더 정확하게 파악하는 데 총력을 기울이고 있다.

차량과 보행자의 안전을 보장하고 정확하고 빠르게 목적지에 도착하기 위해 사용되는 다양한 기술이 하드웨어 뿐만 아니라 소프트웨어에도 크게 의존하고 있다는 사실을 기억하면, 선도적인 기업이 엄청난 자본을 투자해 데이터를 확보하고, 확보한 데이터를 사용해 의미있는 분석 작업을 수행하는 이유를 알게 될 것이다. 더이상 순수 하드웨어 만으로는 경쟁력을 발휘하기 어려운 세상이 왔기 때문에 소프트웨어 분야에 집중적인 관심과 투자가 필요할 것이다.

—————————————————————————————————————-

보행자 감지에 쓰이는 공개된 데이터베이스

기계학습, 특히 딥러닝은 엄청난 데이터를 사용해 학습하는 방법으로 각종 매개변수를 미묘하게 조율하는 방법을 사용한다. 따라서 그 무엇보다 학습을 위한 데이터가 중요하다. 자율주행차에서 가장 중요하게 생각되는 기능인 보행자 감지에 사용되는 데이터베이스를 사례로 소개한다. 캘리포니아 공과대학교(Caltech)에서 제공하는 칼텍 보행자 데이터 집합은 도심 환경에서 차량을 운전하며 찍은 640×480 30 Hz 10시간짜리 비디오를 제공한다. 총 35만 개의 바운딩 박스와 2,300명에 이르는 개별 보행자를 표시해 놓아 테스트 과정에서 검증이 손쉽다. 다음 URL을 참조하자.

http://www.vision.caltech.edu/Image_Datasets/CaltechPedestrians/

참고 문헌

– http://m.media.daum.net/m/media/issue/1338/newsview/20160524174507672

– https://en.wikipedia.org/wiki/Autonomous_car

– http://webzine.iitp.kr/html/vol06/sub02_01.html

– http://www8.cs.umu.se/kurser/5DV029/HT09/handouts/Sensors%20for%20autonomous%20vehicles%20.pdf

– https://en.wikipedia.org/wiki/Lidar

– https://coast.noaa.gov/digitalcoast/_/pdf/lidar101.pdf

– http://www.edn.com/design/automotive/4368069/Automobile-sensors-may-usher-in-self-driving-cars

– https://www.cs.utexas.edu/~pstone/Courses/393Rfall09/resources/sensing.pdf

– http://www.templetons.com/brad/robocars/cameras-lasers.html

– https://en.wikipedia.org/wiki/Multidimensional_DSP_with_GPU_Acceleration

– http://t-robotics.blogspot.kr/2015/05/deep-learning.html

– http://slownews.kr/41461

– https://devblogs.nvidia.com/parallelforall/deep-learning-nutshell-core-concepts/

– http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/

[인터뷰] 자율주행에 AI 적용이 어려운 2가지 이유

[테크월드=선연수 기자] 자율주행 기술을 연구하는 사람은 자율주행차의 미래를 어떻게 바라볼까?

충북대학교 스마트카연구센터장 기석철 교수

충북대학교 스마트카연구센터에는 7명의 교수진과 약 40여 명의 대학원생들이 자율주행 센서 인지기술, 인공지능(AI) 판단기술, 안전제어 기술, 초고속 통신 기술, 딥러닝 기술, 가상·실차 시뮬레이션 기술 등을 연구하고 있다. 삼성전자와 만도에서의 연구 경력에 기반해 스마트카연구센터장을 맡은 기석철 교수와 서면, 전화 인터뷰를 통해 2021년 자율주행 산업을 조망해봤다.

Q. 총 295억 원이 투입되는 자율주행차 지역 테스트베드가 충북대학교 오창 캠퍼스에 구축된다. 가칭 C-트랙(C-Track)으로 불리는 이곳은 어떤 역할을 하게 되는가?

C-트랙은 자율주행차 개발을 위한 센서, 부품, 통신 단말, 지능형 소프트웨어 등의 단위 기술부터 자율주행 통합시스템까지 성능과 안전성을 평가할 수 있는 연구 인프라다. 자율주행 기술을 연구, 개발하는 대학, 연구소, 중소 벤처기업들이 서로 협업하면서 자유롭게 활용할 수 있는 공개형 협력 공간으로 운영될 예정이다.

기존 성능시험장은 자동차 관련 기업의 제품 인증이나 양산 검증을 위해 많이 사용됐다. 양산 업체는 신기술 테스트에 있어 보안 유지를 원하기 때문에 경쟁사는 어떤 실험을 진행했는지 전혀 알 수 없다. 차량 테스트도 중요하지만 부품이나 센서 소프트웨어 테스트가 더 많이 이뤄진다. 현대자동차와 같이 완성차를 연구하는 곳은 자체적으로 검증하기 때문에 외부의 테스트 트랙을 이용하는 경우가 드물다.

그러나 대학 연구소나 벤처기업은 트랙을 가지기 어렵다. 이번 C-트랙에서는 차량, 센서 등이 제공돼 소프트웨어를 가져오면 아이디어 수준의 기술도 테스트해볼 수 있게 된다. C-트랙은 업체의 제품 양산·검증보다는 레벨4 이상의 자율주행차 개발을 위한 선행기술 연구를 목적으로 한다. 비용 측면에서는 영리 기관이 아니기 때문에 최소한의 운영비용을 통해 다른 곳보다 훨씬 저렴한 가격에 테스트해볼 수 있을 것이다.

충북 자율자동차 테스트베드(C-Track) 조감도

Q. 삼성전자와 만도에 있을 때 영상인식 기술 기반 소프트웨어, 자율주행차 센서, 제어기기 등에 관해 연구·개발한 것으로 안다. 자율주행을 위한 다양한 센서 기술 중 가장 중요한 기술은 무엇인가?

모든 센서는 각기 다른 장단점을 가지고 있어 특정 센서 하나에 의존하기보다는 융합 활용이 필수적이라고 생각한다.

센서의 기능 확장성 측면에서 보면 카메라, 라이다(LiDAR), 레이더(Radar) 순으로 볼 수 있다. 보통 카메라는 차선, 신호등, 보행자, 차량 등 인식할 수 있는 대상이 많다. 그러나 라이다는 인식 대상이 카메라 대비 50%밖에 되지 않고, 레이더는 그보다 적다. 레이더는 인식 대상이 승용차인지 이륜차인지 구분하는 것도 아직 어려운 수준이다.

열악한 환경에서의 강인성 측면에서 본다면 레이더, 라이다, 카메라 순서다. 레이더는 눈·비가 오나 낮·밤에 관계없이 언제든 대상을 잘 찾아낸다. 물론 대상을 단순하게 감지할 뿐이다. 그러나 카메라는 빛이 없으면 찾기 어렵고, 흔들림이나 차의 진동, 빠른 속도 등의 상황에서 대상 인식이 어렵다. 또한, 온도가 너무 높거나 낮아도 성능이 많이 떨어질 수 있다.

전자파에도 간섭이 있을 수 있는데, 이는 센서마다 노이즈의 형태가 다르게 나타난다. 레이더는 전자기파를 이용하는 센서라 전자파에 특히 취약하다. 라이다는 직진성이 좋은 레이저 광원을 이용하지만, 공기 중에 물방울이나 초미세먼지가 많으면 산란이 많이 일어난다. 카메라 역시 기상 상황이나 어둠에 취약하다.

센서 양산 가격 측면에서는 카메라, 레이더, 라이다 순으로 매길 수 있다. 라이다의 가격이 낮아졌다고 하지만 여전히 다른 센서 대비 10배 이상 높은 편이다. 시장에서 많이 사용될수록 가격이 떨어질 수는 있지만, 아무리 세탁기를 많이 생산해낸다고 해도 믹서기보다 싸게 제작할 수는 없듯이 라이다는 그만큼 구조가 복잡하고 비싼 부품이 많이 탑재된다. 카메라와 레이더는 이미 수백만 대씩 양산되고 있으며, 라이다는 이제 양산 초기 단계에 접어들었다. 기술의 난이도를 고려했을 때도 향후 가격 순서는 바뀌지 않을 것으로 본다.

Q. 과거 세미나에서 자율주행차에 인공지능을 적용하는 것은 아직 어려운 일이라고 말한 바 있다. 그 이유가 무엇인가?

이유로는 차량용 인공지능(AI) 하드웨어 성능의 한계, AI 모델 안전성 검증 방법의 모호함을 꼽을 수 있다.

독립적인 단말기로 볼 수 있는 자동차에 알파고를 실행시킬 만한 커다란 AI 서버나 컴퓨터를 싣고 다니긴 어렵다. AI 기능을 수행할 수 있는 반도체를 작은 컴퓨팅 보드로 만든다고 해도 성능적인 한계가 있다. 칩 하나가 상당한 AI 성능을 낼 수 있어야 하는 것이다. 반면, 통신이 발달하는 것도 하나의 방법이다. 차량 외부의 서버와 데이터를 매우 빠르게 주고받으면 되는 것이다. 현재로서는 통신과 반도체 두 분야 모두 발달해야 한다.

AI 모델의 안전성 검증 방법의 모호함에 대해 설명하자면, AI가 만능은 아니기에 틀리는 순간이 발생할 수 있다. 다른 시스템에서는 틀릴 경우 다시 실행하면 되지만, 자동차는 심각한 사고를 일으킨다. 그래서 안정성 검증이 굉장히 중요하다. 한 번의 사고만으로도 자율주행차 회사는 경영상태에 큰 타격을 입을 수 있다.

문제는 AI가 왜 틀렸는지 알 수 없다는 것이다. 현재의 검증 방법만으로 해결법을 찾기에는 모호한 부분이 많다. 알파고가 이세돌에게 졌을 때, 다음 경기에서 알파고가 이기기 위한 구체적인 방법이 있는 것이 아니다. 데이터를 더 많이 학습시키면 더 똑똑해지지 않을까 하는 것 뿐이다. 그러나 새로운 데이터를 학습시킨다고 해서 승리가 보장되지는 않는다. 이와 관련해 인공지능 소사이어티에서 ‘설명 가능한 AI(eXplainable Artificial Intelligence, XAI)’를 많이 연구하고 있다. 이는 단계적인 해소가 가능할 것으로 예측한다.

차량 데이터 활용 문제도 중요하지만 데이터 형식의 표준화, 데이터 어노테이션(Annotation), 통신 부하, 데이터 보안 등의 이슈도 남아있어, 데이터를 충분히 활용할 수 있는 시기까지는 아직 시간이 좀 더 필요할 것으로 본다.

Q. 자율주행차 표준은 대부분 미국, 유럽이 주도하고 있다. 자율주행과 관련한 국내 차량 산업의 기술 수준은 어느 정도인가?

자율주행 관련 표준, 핵심 센서, 부품 기술에 있어 국내 기술 수준이 아직 미흡한 것은 사실이다. 그러나 정부, 대기업의 대규모 R&D 투자가 지속되고 있고, 대학에서는 우수 연구 인력이 육성되고 있다. 핵심 기술에 기반해 기술 벤처 창업도 활발해지고 있다. KPMG 보고서에 의하면 자율주행 산업의 준비지수(Readiness Index)는 2019년 전 세계 13위에서 2020년 7위 수준까지 상승했고, 이런 상승세는 당분간 지속될 것으로 판단된다.

자동차는 한국의 전략 산업이자 주력 산업이다. 자동차 산업과 연관된 후방 산업도 크게 발달해 있다. 예를 들면, 주유소, 세일즈맨, 보험 판매사, 카센터 등 관련 분야 종사자는 국내 봉급생활자의 약 20% 이상이 될 것이다. 그래서 뒤처지지 않도록 더욱 열심히 이끌어나가야 한다.

Q. 중국은 정부의 기술 주도하에 자율주행 관련 규제를 유동적으로 적용해가며 과감한 투자를 보이고 있다. 이를 어떻게 보는가?

중국은 이미 오래전부터 자동차 생산·소비 부문에서 전 세계 1위 국가였다. 중국 정부는 미래 자동차 산업의 패권을 차지하기 위해 친환경 자동차, 자율자동차 등에 과감히 투자해오고 있다. 중국 본토에서는 이미 자율주행 로봇 택시(Robot Taxi) 서비스가 운행되고 있고, 바이두(Baidu)를 비롯한 중국의 투자를 받은 실리콘 밸리 기업들이 미국 서부에서 대규모로 자율주행 테스트를 진행 중이다. 자율주행차 시장에서 중국이 선도적인 위치를 점유하는 것은 이미 예견되는 부분이다.

한국 자동차 업체 매출의 30% 이상은 중국이다. 자율주행에서도 이 이상의 영향력을 가질 수 있도록 가야 한다. 현 시장에서 신기술을 만들어내는 것은 당분간 미국과 유럽이 주도할 것으로 보이나, 시간문제일 것이다. 중국이 스마트폰 등의 측면에서 앞선 기술을 빠르게 따라잡은 만큼 자동차 산업에서도 그런 상황이 멀지 않았다고 생각한다.

Q. 우리 정부도 디지털 뉴딜 공표, 미래자동차산업과 신설 등 스마트카 관련 사업을 계속 발표하고 있다. 이에 정책적으로 바라는 부분이 있다면?

2021년부터는 1조 원 규모의 자율주행 혁신 개발 사업이 범부처 차원에서 착수된다. 이를 위해 자율주행 사업단이 조직되고, 약 80개 이상의 연구과제가 진행될 예정이다.

사실 한국 수준이면 정부와 기업의 정책·사업이 부족하다고 말하면 안 된다. 현재 국가 수준에 비해 굉장히 많은 투자를 하고 있는데, 이걸 얼마나 효율성 있게 끌고 가느냐가 쟁점이다. 투자 자체는 부족하지 않다.

과거 우리 정부의 자율주행 연구개발사업은 각 부처가 독자적으로 추진해 중복과 경쟁으로 소모적인 부분이 있던 것도 사실이다. 자율주행은 교통의 문제이기에 국토교통부, 국가 주력 산업이다 보니 산업통상자원부, 통신과 보안 기술이 중요하니 과학기술정보통신부, 인증과 단속의 대상이기에 경찰청, 이어 중소기업벤처부도 사업에 함께 참여하고 있다. 각 부처의 이해관계를 떠나서 국가적인 경쟁력을 갖추고자 범부처 사업이 기획된 만큼, 효율적이고 국제 경쟁력 있는 사업으로 추진하기를 건의한다. 형식적인 개편이 실질적 개편으로 이어질지는 지켜봐야 할 부분이다.

Q. 2021년 자율주행차 산업은 어떻게 흘러갈까?

올해는 고속도로 자율주행 레벨3 차량의 양산이 시작되고, 레벨4 자율주행 서비스 실증사업도 본격적으로 진행될 예정이다. 그러나 자율주행의 자세한 상용화 시기는 주행 레벨에 따라 달라질 것으로 예상한다. 현대차가 2022년 상용화하겠다고 발표한 레벨3 자율주행차와 혼다(Honda)가 올해 상용화하겠다고 발표한 레벨3는 다른 수준의 기술일 수 있다. 레벨을 정하는 잣대가 상당히 단순하기 때문이다.

레벨 3는 운전자가 핸들을 잡지 않아도 되지만 시스템이 제대로 작동하지 못할 경우 운전자가 직접 운전해야 하는 수준의 자율주행 기술을 말한다. 그런데 운전자가 운전해야 하는 순간의 기준이 애매하며, 이마저도 업체마다 다른 상황이다. 자율주행으로 운행할 수 있는 구간을 ODD(Operational Design Domain)라고 하며, 어떤 ODD를 갖느냐에 따라 기술적인 차이가 발생한다.

산업부는 미래자동차산업과(이하 미래차과)를 신설하고 국토부는 자율주행 사고조사위원회를 본격 출범할 것이다. 범부처 자율주행 사업단의 조직과 자율주행 혁신사업 과제들도 착수된다. 자동차 기업들은 본격적으로 자율주행 부품 상용화와 고도화된 기능을 탑재한 자율주행차 출시 경쟁에 돌입할 것이다.

이처럼 2021년은 정부의 전략적 투자가 집중되고, 기업들의 시장 선점을 위한 본격적인 경쟁이 시작되는 한 해가 될 전망이다.

– 이 글은 테크월드가 발행하는 월간 2021년 1월 호에 게재된 기사입니다.

자율주행차는 얼마나 윤리적인가①

편집자주 가속화한 인공지능 시대. 인간 모두를 위한, 인류 모두를 위한 AI를 만드는 방법은? AI 신기술과 그 이면의 문제들, 그리고 이를 해결할 방법과 Good AI의 필요충분조건

지난 칼럼까지는 현재 인공지능의 발달 과정에서 발생한 5대 윤리 문제, 곧 △AI의 편향성 △오류와 안전성 △악용 △개인정보보호 △킬러로봇 등의 문제와 해결방안에 대해서 살펴보았다.

하지만 인공지능 기술은 지금 이 시간에도 끊임없이 발달하고 있으며, 향후 새로운 AI기술이 개발되면 역시 이에 따른 역기능, 부작용, 윤리 문제가 함께 발생할 수 있다. 따라서 인공지능 윤리 문제는 위의 5가지 문제에만 국한된 것이 아니며, 향후 장래에 또 다른 AI 윤리 문제들이 얼마든지 생길 수 있는 것이다. 오늘은 현재 가장 우선적으로 발생할 수 있는 AI 윤리 문제 중 하나인 ‘자율주행차 윤리 문제’에 대해서 이야기해 보고자 한다.

지난 2018년 말, 구글은 자회사 웨이모를 통해, 미국 피닉스 지역에서 세계 최초로 ‘레벨4’의 자율주행택시 서비스를 개시한다고 하여 전 세계를 놀라게 했다.

자율주행차의 기술 발달 수준은 0~5단계까지 나눌 수 있는데 0·1·2단계를 부분자율주행 단계, 3·4·5단계를 완전자율주행 단계라 한다. 현재 많이 활용하고 있는 테슬라의 오토파일럿이나 현대기아차의 스마트 크루즈 시스템 같은 경우는 2단계에 해당된다. 아직 3단계도 상용화한 기업이 없는 상황에서, 구글은 독보적인 기술력을 앞세워 레벨4의 시대가 도래했음을 선언한 것이다.

하지만 필자는 이 소식을 듣고 기술적 놀라움과 함께 안전에 대한 염려가 우려됐다. 2021년 6월, 미국 도로교통안전국은 테슬라의 오토파일럿 사용과 관련된 사망사고 30건에 대한 조사에 착수했다고 밝혔다. 아직 자율주행 기술의 결함이나 과신으로 인해 사망이나 부상사고가 꾸준히 발생하고 있는 상황에서, 자율주행기술에 대한 충분한 검증과 테스트 없이 출시하고 상용화하는 것은 인간의 목숨을 담보로 하는 매우 위험한 일이 될 수 있다.

자율주행차가 일반 대중에게 상용화되려면 총 5가지의 프로세스를 거쳐야 한다. 첫째, 레벨5라는 기술적 완성도는 기본적으로 갖춰야 한다. 출시 전 철저한 검증과 테스트를 통해 운행 도중에 오작동하거나 고장 나는 일이 절대 없어야 한다.

둘째, 지능형교통시스템(ITS, Intelligent Transport System)이 모든 도로와 차량, 관련 시설에 기본 인프라로써 갖춰져야 한다. 전국의 가로수나 도로 곳곳, 신호등, 차량, 건물 등에 모두 센서가 설치되어 자율주행차와 실시간으로 데이터를 송수신하며 교통 상황을 초고속으로 처리할 수 있어야 한다.

셋째, 도로교통법이나 보험관련법 등 기존 법에 대한 개정이 필요하다. 자율주행차가 등장하면서 기존과는 다른 상황들이 발생하게 되고 이에 따라 지켜야할 규정과 자율주행차 사고 시 책임 소재에 따른 보험처리 기준 등을 새로 설정해야 할 것이다.

넷째, 자율주행차가 해킹이나 개인정보유출 등이 이루어지지 않도록 철저한 보안 기술이 탑재돼야 한다. 항상 인터넷으로 연결돼 있는 자율주행차가 해커의 먹잇감이 된다면, 출입문 잠금장치 해킹, 가속 감속 해킹, 조향 장치 해킹 등으로 탑승자에게 매우 위험한 상황이 발생할 수 있다.

마지막으로, 가장 중요한 ‘자율주행차 윤리 알고리즘’이 갖춰져야 한다. 도로상에서 발생할 수 있는 수많은 경우의 수에서 과연 자율주행차는 어떤 알고리즘을 통해 어떤 판단과 결정을 내려야 하는지에 대한 윤리적 기준이 설정돼야 한다.

다음 칼럼에서는 바로 이 ‘자율주행차 윤리 알고리즘’이 왜 중요하고, 어떤 이슈가 있으며, 어떻게 안전성과 윤리성이 갖춰진 알고리즘을 만들 수 있는지에 대해 고민해 보기로 한다.

전창배 IAAE (국제인공지능&윤리협회) 이사장

전창배 IAAE (국제인공지능&윤리협회) 이사장

0 0 공유 저장

세상을 보는 균형, 한국일보 Copyright © Hankookilbo

AI 인공지능 자율주행 자동차 – 교보문고

얼마 전에 라즈베리파이 AI카를 접하게 되었어요. 너무 다양한 것들을 할 수 있다는 것이 참 좋았고, 손쉽게 어플로, 리모콘으로 AI 인공지능 자율주행 자동차를 제어해볼 수 있었답니다. 그런데 하면 할 수록 조금 더 체계적으로 배워보고 싶은 마음이 들더라고요. 헌데 아쉽게도 참고할만한 자료가 그리 많지 않음을 느꼈답니다.그러던 중에.. 앤써북에서 [AI 인공지능 자율주행 자동차] 책이 출간되었다는 소식을 접하게 되었습니다!! 앤써북과 함께라면 AI 인공지능 자율주행 자동차도 굴려볼 수 있어!! 책을 펼쳐보는데 정말 따라하기만 해도 실력이 늘어날 것만 같더라고요. 역시 믿고 보는 앤써북~앤써북의 장점이라면 궁금한 걸 물어보고 저자에게 답변 받을 수 있다는 점이겠지요?그래서 따라하기가 더 수월한 것 같아요. 앤써북 카페에서 질문하면 저자님께서 직접 답변을 해주신다고 하네요. 소스 파일을 받을 수도 있어요.이 책을 실습하기 위한 준비물은 다두이노 사이트에서 인공지능 자율주행 자동차 키트로 구입할 수 있어요. 이 책과 키트만 있으면 이제 AI 인공지능 자율주행 자동차를 뚝딱뚝딱 만들고 프로그래밍 할 수 있겠죠? ^^ 인공지능 자율주행 자동차 키트에는 라즈베리파이와 SD 메모리, USB 공유기 등은 옵션으로 제공하고 있어요. 그렇기 때문에 해당 옵션들을 가지고 있지 않다면 추가로 선택하여 구매하시면 된답니다.책은 [인공지능 자율주행 자동차 개요]로 시작해요. 자율주행 자동차가 무엇인지 알아보고, 실제 본 책에서 만드는 자율주행 자동차의 두뇌가 되는 라즈베리파이에 대해 알아봅니다. 라즈베리의 다양한 모델들에 대한 소개가 잘 정리되어 있어서 라즈베리파이를 처음 접하는 사람도 이해하기 쉽게 다가갈 수 있겠다는 생각이 들더라고요.[자율주행 자동차 조립 및 원격 개발환경 구성] 챕터에서는 자율주행 자동차를 조립하고 라즈베리파이를 원격으로 그래픽 환경과 연결할 수 있는 개발 환경을 구성하는 방법에 대해 정리되어 있어요.인공지능 자율주행 자동차 키트의 부품을 모두 꺼내니 더 푸짐하게 느껴지네요. AI 인공지능 자율주행 자동차 조립기는 따로 영상으로 정리해보고자 합니다. 내 손으로 자율주행을 구현한다니 기대감 가득~ 두근두근하네요~자율주행 자동차를 조립하는 방법은 무려 18페이지에 걸쳐 꼼꼼하게 정리되어 있어요. 사진만 보고 따라해도 어렵지 않게 조립을 완성할 수 있어요. 그리고 라즈베리 이미지 설치하는 방법도 잘 정리되어 있더라고요. 파일을 다운로드 할 수 있는 사이트 소개부터 설치하는 각각의 단계를 처음부터 끝까지 따라할 수 있어요.또한, 원격 접속을 설정하는 과정과 VNC 접속 프로그램으로 원격 접속을 사용하는 방법들이 너무 잘 나와 있어서 박수를 쳤네요. 예전에.. 아무것도 모르는 상태에서 이 작업을 하던 때가 생각나고.. 정말 맨땅에 헤딩하는 기분으로 인터넷 찾아가며 겨우겨우 했었던 기억이.. 진작 이 책을 만났더라면 좋았을 것을.. ㅠ[자동차의 기본기능 익히기] 챕터에는 코드를 작성하여 자동차에 구성된 모터, LED, 스위치, 부저 등을 제어해보면서 라즈베리파이의 GPIO의 기능을 익혀보고 파이썬 프로그램을 다루어보는 과정이 정리되어 있어요.코드를 작성하는 방법과 각 코드가 어떤 것을 의미하는지가 잘 정리되어 있고, 해당 코드를 실행하게 되면 어떻게 작동하는 지 결과를 상세히 보여주고 있어서 내가 잘 따라하고 있는지 확인할 수 있어요.알아두기에서는 ‘파이썬과 C언어의 변수 저장 방법 차이’, ‘블루투스 통신모듈의 연결 여부 확인 방법’ 등이 정리되어 있어서 이론적인 부분이나 연결 상태를 확인하는 방법 등을 알아볼 수 있어요. 참고가 되더라고요. ^^[자동차 무선 조종기능 만들고 조종하기] 챕터에서는 라즈베리파이의 시리얼 통신을 사용하여 블루투스 모듈과 연결하고, 스마트폰과 통신을 통해 자동차를 무선으로 조종해보는 방법을 설명해요. 또한 통신데이터를 안정적으로 받기 위해 쓰레드를 이용해 기능을 분리해보는 과정을 함께합니다.스페셜페이지를 통해 아이폰 사용자의 블루투스 조종 방법까지 친절하게 소개하고 있는 책이네요. 아이폰을 가지고 있는 사람들에게 감동스러운 페이지가 될 듯 합니다. ㅎㅎ[카메라를 활용한 자율주행 자동차 만들기 OpenCV 활용] 챕터는 카메라 활용 OpenCV 영상처리 라이브러리를 파이썬 코드로 작성하여, 영상을 받아 선을 따라 이동하는 자율주행 자동차를 만들어볼 수 있어요.카메라로 영상을 확인하고, OpenCV를 설치하고 이를 이용해 간단한 영상 처리를 하고, 회색(or 갈색) 계열의 바닥에 흰색 테이프로 차선을 그려서 라인 트레이싱을 해보는 과정을 순차적으로 파이썬 코드를 작성해보았어요. 마침 집 거실 바닥이 갈색이라 나이스~를 외쳤다지요. ^^ 참, 이 과정들은 영상을 분석하는 알고리즘을 사람이 만드는 단계로 아직 인공지능 단계는 아니랍니다.[딥러닝 자율주행 자동차 만들기 – 데이터 획득] 챕터에서는 딥러닝을 통한 자율주행 자동차를 만드는 과정, 데이터를 획득하는 과정, OpenCV를 이용하여 자동차를 조종하고 자동차의 조향각도가 포함된 주행사진을 획득하는 과정이 정리되어 있어요.코드를 작성하고 결과를 확인하는 과정을 반복하다보면 딥러닝 자율주행 자동차를 위한 데이터 획득 과정을 자연스럽게 익히게 되요. 데이터를 학습시킬 때는 PC 화면을 보면서 조종하여 학습하는데, 자동차를 직접 보면서 조종을 하면 3인칭으로 보여지기 때문에 실제 카메라 영상을 보며서 학습을 시키는 것이 필요하다는 점 등의 팁도 확인할 수 있어요.[딥러닝 자율주행 자동차 만들기 – 모델 생성] 챕터는 구글 코랩을 활용하여 tensorflow, keras를 설치하고 6장에서 획득한 주행사진을 인공지능의 CNN을 이용해 학습하고, 결과 파일인 모델을 생성하는 과정이 정리되어 있어요.[딥러닝 자율주행 자동차 만들기 – 모델 적용 후 자율주행] 챕터는 라즈베리파이에 인공지능 라이브러리인 tensorflow, keras를 설치하고, 7장에서 학습된 모델을 불러와 자율주행을 합니다. 사람이 만든 알고리즘이 아닌 딥러닝을 통해 컴퓨터가 만든 알고리즘으로 진짜 자율주행을 하는 과정이 정리되어 있어요.[딥러닝 자율주행 자동차 만들기 요약] 챕터는 자율주행 자동차를 만들기 위한 핵심 과정은 요약하여 설명하고 있어요. 상기 핵심 과정은 데이터 획득을 하는 6장과 이를 통해 모델을 생성하는 7장, 모델 적용 후 자율주행을 하는 8장, 이렇게 3단계랍니다. 앞 장에서 진행했던 내용들을 다시 한 번 정리해볼 수 있어 좋았네요.[딥러닝 자율주행 자동차필터 적용하여 성능 높이기] 챕터는 자율주행 자동차의 데이터 획득과 적용 과정에서 OpenCV의 필터를 이용해 자율주행 자동차의 성능을 높이는 과정을 정리합니다. 필터 선 적용 시 선을 더욱 더 뚜렷하게 부각시켜 학습하고 결과를 적용할 수 있어요.[딥러닝 물체감기] 챕터는 OpenCV DNN을 이용해 tensorflow에서 생성된 인공지능 모델을 라즈베리파이에 적용하여 물체를 감지하는 과정을 정리하고 있어요. 여기에 자율주행 자동차와 결합하여 주행 시 사람을 감지하여 자동으로 멈추는 기능도 추가할 수 있답니다.이러한 과정들을 QR 코드를 통해 동영상으로도 확인할 수 있어요. 아참, 그리고 OpenCV, tensorflow, keras 등의 라이브러리는 업데이트가 빈번하기 때문에 버전 변동으로 인해 코드를 변경해야할 경우엔 앤써북 네이버카페를 통해 공지해준다고 하네요. 따라하다가 뭔가 막히면 도서별 독자지원 센터로 찾아가면 해결이 되겠죠? ^^인공지능이 이슈가 되고 있는 요즘, 내 스스로 인공지능을 프로그래밍 해볼 수 있는 기회를 갖는다는 것은 엄청난 즐거움이 아닐까 생각해요. 이 책과 함께라면 인공지능 자율주행 자동차를 만들어보고 프로그래밍하기까지의 과정을 재미있고 쉽게 따라해볼 수 있을 거라는 확신이 듭니다.

키워드에 대한 정보 자율 주행 ai

다음은 Bing에서 자율 주행 ai 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.

이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!

사람들이 주제에 대해 자주 검색하는 키워드 일론 머스크가 말하는 자율주행과 AI

  • #테슬라
  • #일론 머스크
  • #자율주행
  • #인공지능

일론 #머스크가 #말하는 #자율주행과 #AI


YouTube에서 자율 주행 ai 주제의 다른 동영상 보기

주제에 대한 기사를 시청해 주셔서 감사합니다 일론 머스크가 말하는 자율주행과 AI | 자율 주행 ai, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.

See also  군 복무 기간 단축 | 차트로 보는 군 복무기간 변천사! 29986 명이 이 답변을 좋아했습니다

Leave a Comment