본문으로 건너뛰기

"End-to-End" 태그로 연결된 3개 게시물개의 게시물이 있습니다.

모든 태그 보기

Train here, drive there: ROS based end-to-end autonomous-driving pipeline validation in CARLA simulator using the NHTSA typology

· 약 3분
Lasse Schwartz
Christian Lötter
Rolf Drechsler

논문 정보

  • 제목: Train here, drive there: ROS based end-to-end autonomous-driving pipeline validation in CARLA simulator using the NHTSA typology
  • 저자: Lasse Schwartz, Christian Lötter, Rolf Drechsler
  • 학회/저널: Multimedia Tools and Applications, Springer
  • 발행일: 2021-12
  • DOI: 10.1007/s11042-021-11681-7
  • 주요 연구 내용: CARLA 시뮬레이터에서 ROS 기반 종단간(end-to-end) 자율주행 파이프라인을 훈련시키고, NHTSA(미국 도로교통안전국)의 사전 충돌 사고 유형 분류 체계를 기반으로 설계된 교통 시나리오에서 검증하는 방법론 제안
  • 주요 결과 및 결론: NHTSA 사고 유형론에 기반한 체계적 시나리오 설계로 정지, 보행자 횡단, 적응형 순항 제어, 예기치 못한 보행자 등의 시나리오에서 자율주행 시스템의 안전성을 검증
  • 기여점: 훈련-검증 분리 파이프라인과 NHTSA 사고 유형론의 시뮬레이션 적용을 결합하여, 실제 도로 테스트 이전 단계의 체계적 시뮬레이션 검증 프레임워크를 제시

CARLA: An Open Urban Driving Simulator

· 약 3분
Alexey Dosovitskiy
German Ros
Felipe Codevilla
Antonio Lopez
Vladlen Koltun

논문 정보

  • 제목: CARLA: An Open Urban Driving Simulator
  • 저자: Alexey Dosovitskiy (Intel Labs), German Ros (Toyota Research Institute), Felipe Codevilla (Computer Vision Center, Barcelona), Antonio Lopez (Computer Vision Center, Barcelona), Vladlen Koltun (Intel Labs)
  • 학회/저널: Proceedings of the 1st Annual Conference on Robot Learning (CoRL 2017), pp. 1-16
  • 발행일: 2017-11-10
  • DOI: arXiv:1711.03938
  • 주요 연구 내용: 자율주행 시스템의 개발, 훈련, 검증을 지원하는 오픈소스 도심 주행 시뮬레이터 CARLA의 설계와 구현
  • 주요 결과 및 결론: 모듈형 파이프라인, 모방 학습 기반 E2E, 강화학습 기반 E2E의 세 가지 자율주행 접근법을 난이도가 증가하는 시나리오에서 비교 평가하여 CARLA의 연구 플랫폼으로서의 유용성을 검증
  • 기여점: 소스 코드, 디지털 에셋, 프로토콜을 모두 공개한 최초의 본격적 오픈소스 자율주행 시뮬레이터로, 자율주행 연구의 표준 플랫폼으로 자리잡음

An End-to-End Trainable Neural Network for Image-Based Sequence Recognition and Its Application to Scene Text Recognition

· 약 5분
Baoguang Shi
Xiang Bai
Cong Yao

논문 정보

  • 제목: An End-to-End Trainable Neural Network for Image-Based Sequence Recognition and Its Application to Scene Text Recognition
  • 저자: Baoguang Shi, Xiang Bai, Cong Yao (Huazhong University of Science and Technology)
  • 학회/저널: IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE
  • 발행일: 2016-12-28
  • DOI: 10.1109/TPAMI.2016.2646371
  • 주요 연구 내용: 이미지 기반 시퀀스 인식을 위해 Convolutional Neural Network(CNN)와 Recurrent Neural Network(RNN)을 통합한 새로운 아키텍처인 CRNN(Convolutional Recurrent Neural Network)을 제안함. 이 모델은 특징 추출(CNN), 시퀀스 모델링(RNN), 전사(Transcription)의 세 부분을 하나의 프레임워크로 결합하여 문자 단위의 레이블 없이 종단간(End-to-End) 학습이 가능함.
  • 주요 결과 및 결론: IIIT-5K, SVT, ICDAR 등 표준 장면 텍스트 인식 벤치마크에서 기존 최고 수준의 알고리즘들과 대등하거나 더 우수한 성능을 보임. 또한, 제안된 모델은 훨씬 적은 파라미터(8.3M)를 사용하여 효율적이며, 악보 인식과 같은 다른 시퀀스 인식 문제에도 일반화될 수 있음을 확인함.
  • 기여점: 기존 방법들과 달리 구성 요소를 개별적으로 훈련할 필요 없는 완전한 종단간 학습이 가능함. 문자 분할이나 정규화 과정 없이 임의 길이의 시퀀스를 자연스럽게 처리하며, 사전(lexicon) 유무에 관계없이 높은 성능을 달성함.