본문으로 건너뛰기

"JIK Reference" 태그로 연결된 28개 게시물개의 게시물이 있습니다.

모든 태그 보기

CARJAN: Agent-Based Generation and Simulation of Traffic Scenarios with AJAN

· 약 3분
Leonard Frank Neis
André Antakli
Matthias Klusch

논문 정보

  • 제목: CARJAN: Agent-Based Generation and Simulation of Traffic Scenarios with AJAN
  • 저자: Leonard Frank Neis (DFKI, Saarland Informatics Campus), André Antakli (DFKI, Saarland Informatics Campus), Matthias Klusch (DFKI, Saarland Informatics Campus)
  • 학회/저널: arXiv 프리프린트 (cs.AI)
  • 발행일: 2025-08-29
  • DOI: arXiv:2508.21411
  • 주요 연구 내용: AJAN 멀티에이전트 프레임워크와 CARLA 자율주행 시뮬레이터를 통합하여 도시 교통 시나리오를 반자동으로 생성하고 시뮬레이션하는 도구 CARJAN 개발
  • 주요 결과 및 결론: 보행자, 자전거, 자율주행 차량 등 다양한 에이전트가 상호작용하는 복합 교통 시나리오의 비주얼 모델링과 시뮬레이션을 통합한 최초의 접근법 제시
  • 기여점: SPARQL Behavior Tree 기반 에이전트 의사결정과 비주얼 UI 기반 시나리오 모델링을 결합하여 사용자 친화적인 교통 시나리오 생성·시뮬레이션 도구 제공

Enhancing Game AI Behaviors with Large Language Models and Agentic AI

· 약 3분
Ciprian Paduraru
Miruna Gabriela Paduraru
Alin Stefanescu

논문 정보

  • 제목: Enhancing Game AI Behaviors with Large Language Models and Agentic AI
  • 저자: Ciprian Paduraru (Gameloft & University of Bucharest), Miruna Gabriela Paduraru (University of Bucharest), Alin Stefanescu (University of Bucharest)
  • 학회/저널: FSE 2025 (33rd ACM International Conference on the Foundations of Software Engineering) - Industry Papers
  • 발행일: 2025-06-25
  • DOI: 10.1145/3696630.3728553
  • 주요 연구 내용: LLM과 에이전트 기반 AI를 활용하여 게임 NPC의 복잡한 행동 트리(BT)를 자동 생성하는 프레임워크를 제안하며, 소스 코드와 게임 엔진 시각 도구 간의 간극을 해소
  • 주요 결과 및 결론: 소형 로컬 모델로 외부 API 없이 구동 가능하며, 기술/비기술 스테이크홀더 모두 활용 가능한 실용적 접근법을 산학 협력으로 검증
  • 기여점: LLM 기반 BT 자동 생성 파이프라인, 게임 엔진 시각 도구 통합, NPC 행동 다양성 및 테스트 가능성 향상, 다양한 게임 엔진에 적응 가능한 확장성 있는 아키텍처

Automatic Robot Task Planning by Integrating Large Language Model with Genetic Programming

· 약 4분
Azizjon Kobilov
Jianglin Lan

논문 정보

  • 제목: Automatic Robot Task Planning by Integrating Large Language Model with Genetic Programming
  • 저자: Azizjon Kobilov (University of Glasgow, James Watt School of Engineering), Jianglin Lan (University of Glasgow, James Watt School of Engineering)
  • 학회/저널: 10th IEEE International Conference on Advanced Robotics and Mechatronics (ARM 2025), Portsmouth, UK
  • 발행일: 2025-02-11 (arXiv 제출일)
  • DOI: arXiv:2502.07772
  • 주요 연구 내용: LLM과 유전 프로그래밍(GP)을 통합한 LLM-GP-BT 기법으로 자연어 로봇 작업 명령을 행동 트리(BT) 기반 작업 계획으로 자동 변환
  • 주요 결과 및 결론: LLM-GP-BT가 GP-BT 대비 더 빠른 수렴 속도와 우수한 성능을 확률적 환경에서도 유지하며, 절반 크기의 초기 집단으로도 기존 방법보다 우수한 성능 달성
  • 기여점: 사전 정의된 BT 예시 없이 환경 이미지와 자연어 명령만으로 BT를 자동 생성하는 사용자 친화적이고 계산 효율적인 프레임워크 제안

Automatic Behavior Tree Expansion with LLMs for Robotic Manipulation

· 약 3분
Jonathan Styrud
Matteo Iovino
Mikael Norrlöf
Mårten Björkman
Christian Smith

논문 정보

  • 제목: Automatic Behavior Tree Expansion with LLMs for Robotic Manipulation
  • 저자: Jonathan Styrud, Matteo Iovino, Mikael Norrlöf, Mårten Björkman, Christian Smith
  • 학회/저널: ICRA 2025 (IEEE International Conference on Robotics and Automation)
  • 발행일: 2024-09-20 (arXiv), 2025 (ICRA)
  • DOI: 10.48550/arXiv.2409.13356
  • 주요 연구 내용: LLM을 활용하여 로봇 조작 작업 중 계획 및 실행 단계에서 발생하는 오류를 자동으로 해결하고, 행동 트리(BT) 정책을 동적으로 확장·구성하는 BETR-XP-LLM 방법론 제안
  • 주요 결과 및 결론: 다양한 작업과 실패 상황에서 BT를 자동으로 확장하여 문제를 해결하고, 향후 유사한 문제에 대응할 수 있도록 정책을 영구적으로 업데이트
  • 기여점: BT의 투명성과 가독성을 유지하면서 LLM 호출을 최소화하고, 자동 정책 업데이트를 통해 로봇 시스템의 견고성과 성공률을 향상

LLM-BT - Performing Robotic Adaptive Tasks based on Large Language Models and Behavior Trees

· 약 3분
Haotian Zhou
Yunhan Lin
Longwu Yan
Jihong Zhu
Huasong Min

논문 정보

  • 제목: LLM-BT: Performing Robotic Adaptive Tasks based on Large Language Models and Behavior Trees
  • 저자: Haotian Zhou, Yunhan Lin, Longwu Yan, Jihong Zhu, Huasong Min
  • 학회/저널: IEEE International Conference on Robotics and Automation (ICRA 2024)
  • 발행일: 2024-04-08
  • DOI: arXiv:2404.05134
  • 주요 연구 내용: 대규모 언어 모델(LLM)과 행동 트리(BT)를 결합하여 외부 교란 상황에서도 로봇이 적응적으로 태스크를 수행할 수 있는 LLM-BT 프레임워크 제안
  • 주요 결과 및 결론: 기존 LLM 기반 방법과 달리 동적으로 확장 가능한 가변 행동 트리를 출력하여 외부 교란에 강건한 로봇 태스크 실행 달성
  • 기여점: ChatGPT 기반 추론, BERT 기반 파싱, 동적 BT 업데이트 알고리즘을 통합한 새로운 적응적 로봇 태스크 수행 파이프라인 제시

A Study on Training and Developing Large Language Models for Behavior Tree Generation

· 약 3분
Fu Li
Xueying Wang
Bin Li
Yunlong Wu
Yanzhen Wang
Xiaodong Yi

논문 정보

  • 제목: A Study on Training and Developing Large Language Models for Behavior Tree Generation
  • 저자: Fu Li, Xueying Wang, Bin Li, Yunlong Wu, Yanzhen Wang, Xiaodong Yi
  • 학회/저널: arXiv preprint (cs.CL, cs.AI, cs.RO)
  • 발행일: 2024-01-16
  • DOI: 10.48550/arXiv.2401.08089
  • 주요 연구 내용: LLM의 표현 및 추론 능력을 활용하여 복잡한 작업에 대한 행동 트리(BT)를 자동 생성하는 프레임워크를 설계하고, 데이터 합성부터 모델 훈련, 애플리케이션 개발, 데이터 검증까지의 전체 파이프라인을 제안
  • 주요 결과 및 결론: 합성 데이터로 훈련된 BTGen 모델이 다양한 복잡한 작업에 대한 이해도와 적응력을 크게 향상시키며, 다층 검증 전략으로 생성된 BT의 유효성과 실행 가능성을 보장
  • 기여점: 데이터 합성, 모델 훈련, 애플리케이션 개발, 다층 검증을 아우르는 완전한 LLM 기반 BT 생성 프레임워크를 최초로 제시

dSPACE SIL Introduction

· 약 3분

논문 정보

  • 제목: Automotive SIL Testing: How do I do it right?
  • 저자: dSPACE GmbH (기업 기술 문서)
  • 학회/저널: dSPACE Engineers' Insights (기술 문서)
  • 발행일: N/A
  • DOI: dSPACE 공식 문서
  • 주요 연구 내용: Software-in-the-Loop(SIL) 테스팅의 개념, 구성 요소, dSPACE VEOS 플랫폼을 활용한 자동차 소프트웨어 검증 방법론 소개
  • 주요 결과 및 결론: SIL 테스팅은 실제 하드웨어 없이 소프트웨어를 검증하여 개발 초기 단계에서 빠르고 비용 효율적인 테스팅을 가능하게 함
  • 기여점: MIL-SIL-HIL-Vehicle로 이어지는 V-모델 검증 워크플로우에서 SIL의 역할과 VEOS 플랫폼의 기능을 체계적으로 설명

Self-Refine - Iterative Refinement with Self-Feedback

· 약 4분
Aman Madaan
Niket Tandon
Prakhar Gupta
Skyler Hallinan
Luyu Gao
Sarah Wiegreffe
Uri Alon
Nouha Dziri
Shrimai Prabhumoye
Yiming Yang
Shashank Gupta
Bodhisattwa Prasad Majumder
Katherine Hermann
Sean Welleck
Amir Yazdanbakhsh
Peter Clark

논문 정보

  • 제목: Self-Refine: Iterative Refinement with Self-Feedback
  • 저자: Aman Madaan (Carnegie Mellon University), Niket Tandon (Allen Institute for AI), Prakhar Gupta (Carnegie Mellon University), Skyler Hallinan (University of Washington), Luyu Gao (Carnegie Mellon University), Sarah Wiegreffe (Allen Institute for AI), Uri Alon (Carnegie Mellon University), Nouha Dziri (Allen Institute for AI), Shrimai Prabhumoye (NVIDIA), Yiming Yang (Carnegie Mellon University), Shashank Gupta (Allen Institute for AI), Bodhisattwa Prasad Majumder (Allen Institute for AI), Katherine Hermann (Google Research), Sean Welleck (Carnegie Mellon University), Amir Yazdanbakhsh (Google Research), Peter Clark (Allen Institute for AI)
  • 학회/저널: NeurIPS 2023 (Thirty-seventh Conference on Neural Information Processing Systems)
  • 발행일: 2023-12-10
  • DOI: arXiv:2303.17651
  • 주요 연구 내용: 단일 LLM을 생성기, 피드백 제공자, 개선기로 동시에 활용하여 초기 출력을 반복적으로 개선하는 Self-Refine 프레임워크 제안
  • 주요 결과 및 결론: 7개의 다양한 태스크에서 평균 약 20%의 절대적 성능 향상을 달성하며, 추가 학습 데이터나 강화학습 없이 GPT-4와 같은 최신 모델의 성능도 테스트 시간에 추가로 향상 가능함을 입증
  • 기여점: 별도의 학습 없이 단일 LLM만으로 출력 품질을 반복적으로 개선할 수 있는 범용적 프레임워크를 제안하여, LLM의 활용 패러다임에 새로운 방향을 제시

Teaching Large Language Models to Self-Debug

· 약 3분
Xinyun Chen
Maxwell Lin
Nathanael Schärli
Denny Zhou

논문 정보

  • 제목: Teaching Large Language Models to Self-Debug
  • 저자: Xinyun Chen (Google DeepMind), Maxwell Lin (UC Berkeley), Nathanael Schärli (Google DeepMind), Denny Zhou (Google DeepMind)
  • 학회/저널: ICLR 2024 (International Conference on Learning Representations)
  • 발행일: 2023-04-11 (arXiv), 2024 (ICLR)
  • DOI: 10.48550/arXiv.2304.05128
  • 주요 연구 내용: LLM이 생성한 코드를 스스로 실행하고, 실행 결과를 분석하며, 자연어 설명을 통해 오류를 파악·수정하는 Self-Debugging 프레임워크 제안
  • 주요 결과 및 결론: Spider(text-to-SQL)에서 2-3%, TransCoder(C++-to-Python)와 MBPP(text-to-Python)에서 최대 12%의 정확도 향상을 달성하며, 10배 이상의 후보 프로그램을 생성하는 베이스라인과 동등하거나 우수한 성능
  • 기여점: 추가 학습 데이터 없이 인퍼런스 단계에서만 동작하는 자기 수정 메커니즘을 제안하고, 러버 덕 디버깅 개념을 LLM에 적용

GPT-4 Technical Report

· 약 3분
OpenAI

논문 정보

  • 제목: GPT-4 Technical Report
  • 저자: OpenAI (Josh Achiam, Steven Adler, Sandhini Agarwal 외 다수)
  • 학회/저널: arXiv preprint
  • 발행일: 2023-03-15 (최종 수정: 2024-03-04)
  • DOI: 10.48550/arXiv.2303.08774
  • 주요 연구 내용: 이미지와 텍스트를 입력으로 받아 텍스트를 출력하는 대규모 멀티모달 언어 모델 GPT-4의 개발, 성능 평가, 안전성 분석
  • 주요 결과 및 결론: 다양한 전문적·학술적 벤치마크에서 인간 수준의 성능을 달성하며, 모의 변호사 시험 상위 10% 수준의 점수를 기록. RLHF 기반 정렬을 통해 사실성 및 바람직한 행동 준수를 향상
  • 기여점: 현대 LLM 연구의 기준점을 제시하고, 스케일 예측 방법론을 실증하며, 포괄적인 안전성 평가 프레임워크를 제공