top of page

gSCAI at INU

인천대학교 물류경영연구소

글로벌공급망AI연구센터

the INU Center for global Supply Chain Artificial Intelligence

---

인천대학교 동북아물류대학원 글로벌공급망AI연구센터(Global Supply Chain AI Research Center, gSCAI)는 인공지능 기술을 기반으로 물류·공급망 시스템의 지능화와 혁신을 선도하기 위해 설립된 연구 허브입니다.

본 센터는 인천국제공항공사의 기부금과 국가재정지원사업을 바탕으로, NVIDIA Blackwell GPU를 포함한 고성능 AI 컴퓨팅 인프라를 충분히 확보하고 있으며, 산·학·연 파트너 기관들과의 협력을 통해 실제 물류·공급망 데이터를 안정적으로 확보·활용할 수 있는 연구 환경을 구축하고 있습니다. gSCAI는 다음과 같은 연구를 중점적으로 추진합니다.

  • 글로벌 공급망 분석 및 예측을 위한 AI·머신러닝 모델 개발

  • 항공·항만·물류 네트워크의 지능화 및 디지털 전환 연구

  • 물류 자동화, 운영 최적화, 리스크 관리 분야의 AI 기반 의사결정 지원

  • 산업 현장과 연계된 실증 중심의 데이터 기반 연구

본 센터는 국내외 대학, 연구기관, 공공기관, 기업과의 다양한 공동 연구 및 산학협력에 열려 있으며,글로벌 공급망과 AI 분야에서 새로운 가치를 창출하고자 하는 연구자, 실무 전문가, 대학원생 등 인재들의 적극적인 참여와 지원을 환영합니다. gSCAI는 기술을 넘어, 지속가능하고 회복탄력적인 글로벌 공급망의 미래를 설계하는 연구 플랫폼이 되고자 합니다.

The Global Supply Chain AI Research Center (gSCAI) at the Graduate School of Northeast Asian Logistics,
Incheon National University, is a research hub established to advance the intelligent transformation of logistics and global supply chains through artificial intelligence. Supported by donations from Incheon International Airport Corporation and national government-funded programs, gSCAI has secured robust AI computing infrastructure, including NVIDIA Blackwell GPUs, and has established strong partnerships that enable access to real-world logistics and supply chain data from diverse institutions.

 

The Center focuses on:

  • AI and machine learning models for global supply chain analysis and forecasting

  • Intelligent logistics networks for aviation, ports, and multimodal transportation

  • AI-driven optimization, automation, and risk management in supply chain operations

  • Data-driven, application-oriented research in close collaboration with industry and public institutions

 

gSCAI is open to collaborative research with universities, research institutes, public agencies, and industry partners worldwide, and warmly welcomes talented researchers, practitioners, and graduate students who aspire to shape the future of AI-enabled supply chains. Beyond technology, gSCAI aims to become a platform for designing resilient, sustainable, and intelligent global supply chains.

화면 캡처 2025-12-17 012038.jpg

 GPU

Nvidia RTX Pro 6000 Blackwell MaxQ (96GB, CUDA cores: 24,064) 3대

Nvidia DGX Spark Blackwell GB10 (128GB, CUDA cores: 6,144) 3대

Nvidia RTX 5090 (32GB, CUDA cores:21,760) 2대

기타 RTX 4090, 3090 등 다수

as of December 2025

Meet The Team

Our Projects

LLM AI 기반 수요 예측 및 재고관리

본 연구는 대규모 언어모델(LLM)을 활용하여 정형 데이터뿐 아니라 시장 뉴스, 정책 변화, 소비 트렌드 등 비정형 정보를 통합한 차세대 수요 예측 모델을 개발합니다. 이를 통해 전통적 통계·머신러닝 기반 예측의 한계를 극복하고, 불확실성이 높은 환경에서도 보다 정교한 재고 의사결정을 지원합니다. 나아가 LLM 기반 의사결정 보조 시스템을 통해 재고 수준, 주문 정책, 서비스 수준 간의 균형을 지능적으로 최적화하는 것을 목표로 합니다.

LLM AI 기반 물류 계약 포트폴리오 최적화

본 연구는 물류 계약 조건, 운임 구조, 서비스 수준, 리스크 조항 등 복잡한 계약 정보를 LLM을 통해 정밀하게 분석하고, 최적의 계약 포트폴리오를 설계하는 AI 의사결정 모델을 개발합니다. 불확실한 수요와 운임 환경 속에서 단일 계약이 아닌 복수 계약의 조합을 전략적으로 구성함으로써 비용과 리스크를 동시에 관리할 수 있도록 지원합니다. 이는 화주와 물류기업 모두에게 전략적 협상과 계약 관리의 새로운 기준을 제시합니다.

정형–비정형 데이터 통합 기반 AI 해상운임 예측

본 연구는 과거 운임, 선복량, 유가 등 정형 데이터와 함께, 글로벌 뉴스, 항만 혼잡 이슈, 지정학적 이벤트 등 비정형 데이터를 통합한 AI 기반 해상운임 예측 모델을 개발합니다. LLM을 활용하여 비정형 정보의 의미를 정량화하고, 이를 시계열 예측 모델과 결합함으로써 급변하는 해상운임 변동성을 보다 선제적으로 포착합니다. 이는 화주와 물류기업의 운임 계약 및 운송 전략 수립을 지원하는 핵심 도구로 활용될 수 있습니다.

Multi-agent Logistics Simulator 개발

본 연구는 물류 네트워크를 구성하는 다양한 주체(제조사, 물류기업, 운송사, 공항·항만 운영자 등)를 LLM 기반 에이전트로 모델링하는 멀티에이전트 시뮬레이터를 개발합니다. 각 에이전트는 제한된 정보와 목표 하에서 자율적으로 의사결정을 수행하며, 이들의 상호작용을 통해 공급망 전체의 동태적 거동을 분석합니다. 이를 통해 정책 변화, 리스크 발생, 협력 전략이 공급망 성과에 미치는 영향을 가상 환경에서 정밀하게 검증할 수 있습니다.

글로벌 공급망 리스크 모니터링 및 예측

본 연구는 글로벌 공급망 전반에 영향을 미치는 지정학적 리스크, 정책 변화, 자연재해, 산업 이슈 등을 실시간으로 감지·분석하는 AI 기반 리스크 모니터링 시스템을 구축합니다. LLM을 활용하여 다양한 글로벌 정보원을 해석하고, 잠재적 리스크의 전파 경로와 영향을 예측합니다. 이를 통해 기업과 공공기관이 사전 대응 전략을 수립할 수 있는 조기경보 체계를 제공하는 것을 목표로 합니다.

물류기업 재무 성과 및 리스크 평가

본 연구는 물류기업의 재무제표, 운영 지표, 시장 환경 데이터를 통합하여 재무 성과와 리스크를 정량적으로 평가하는 AI 기반 분석 프레임워크를 구축합니다. 수익성, 현금흐름, 재무 건전성 지표와 함께 운임 변동성, 수요 불확실성, 계약 구조 등 물류 산업 특유의 리스크 요인을 종합적으로 반영합니다. 이를 통해 기업의 재무 안정성과 위기 대응 능력을 진단하고, 투자·경영·정책 의사결정을 지원하는 실증적 분석 도구를 제공하는 것을 목표로 합니다.

bottom of page