GPU 액셀러레이터 시장 : 제품 유형별, 최종사용자별, 메모리 사이즈별, 애플리케이션별 - 세계 예측(2026-2032년)
GPU Accelerator Market by Product Type, End User, Memory Size, Application - Global Forecast 2026-2032
상품코드 : 1925851
리서치사 : 360iResearch
발행일 : 2026년 01월
페이지 정보 : 영문 184 Pages
 라이선스 & 가격 (부가세 별도)
US $ 3,939 ₩ 5,699,000
PDF, Excel & 1 Year Online Access (Single User License) help
PDF 및 Excel 보고서를 1명만 이용할 수 있는 라이선스입니다. 텍스트 등의 복사 및 붙여넣기, 인쇄가 가능합니다. 온라인 플랫폼에서 1년 동안 보고서를 무제한으로 다운로드할 수 있으며, 정기적으로 업데이트되는 정보도 이용할 수 있습니다. (연 3-4회 정도 업데이트)
US $ 4,249 ₩ 6,147,000
PDF, Excel & 1 Year Online Access (2-5 User License) help
PDF 및 Excel 보고서를 동일기업 내 5명까지 이용할 수 있는 라이선스입니다. 텍스트 등의 복사 및 붙여넣기, 인쇄가 가능합니다. 온라인 플랫폼에서 1년 동안 보고서를 무제한으로 다운로드할 수 있으며, 정기적으로 업데이트되는 정보도 이용할 수 있습니다. (연 3-4회 정도 업데이트)
US $ 5,759 ₩ 8,332,000
PDF, Excel & 1 Year Online Access (Site License) help
PDF 및 Excel 보고서를 동일 기업 내 동일 지역 사업장의 모든 분이 이용할 수 있는 라이선스입니다. 텍스트 등의 복사 및 붙여넣기, 인쇄가 가능합니다. 온라인 플랫폼에서 1년 동안 보고서를 무제한으로 다운로드할 수 있으며, 정기적으로 업데이트되는 정보도 이용할 수 있습니다. (연 3-4회 정도 업데이트)
US $ 6,969 ₩ 10,083,000
PDF, Excel & 1 Year Online Access (Enterprise User License) help
PDF 및 Excel 보고서를 동일 기업의 모든 분이 이용할 수 있는 라이선스입니다. 텍스트 등의 복사 및 붙여넣기, 인쇄가 가능합니다. 온라인 플랫폼에서 1년 동안 보고서를 무제한으로 다운로드할 수 있으며, 정기적으로 업데이트되는 정보도 이용할 수 있습니다. (연 3-4회 정도 업데이트)


ㅁ Add-on 가능: 고객의 요청에 따라 일정한 범위 내에서 Customization이 가능합니다. 자세한 사항은 문의해 주시기 바랍니다.
ㅁ 보고서에 따라 최신 정보로 업데이트하여 보내드립니다. 배송기일은 문의해 주시기 바랍니다.

한글목차

GPU 액셀러레이터 시장은 2025년에 84억 7,000만 달러로 평가되며, 2026년에는 92억 4,000만 달러로 성장하며, CAGR 10.24%로 추이하며, 2032년까지 167억 7,000만 달러에 달할 것으로 예측됩니다.

주요 시장 통계
기준연도 2025 84억 7,000만 달러
추정연도 2026 92억 4,000만 달러
예측연도 2032 167억 7,000만 달러
CAGR(%) 10.24%

컴퓨팅 수요의 집중과 소프트웨어 혁신이 산업 전반에 걸쳐 인프라 우선순위를 재정의하는 가운데 GPU 가속기의 전략적 필요성이 부각되고 있습니다.

GPU 가속기 동향은 끊임없는 컴퓨팅 수요와 빠른 알고리즘의 발전이 교차하는 지점에 있으며, 리더이 인프라, 조달, 혁신 전략을 재평가할 필요성이 대두되고 있습니다. 클라우드 프로바이더, 연구기관, 기업 등 모든 조직은 경쟁 환경의 변화에 직면해 있습니다. GPU가 전통적 고성능 컴퓨팅 워크로드와 현대의 머신러닝 수명주기 모두에서 핵심적인 역할을 수행함에 따라 이러한 변화는 가속화되고 있습니다.

신흥 워크로드 수요, 소프트웨어 추상화, 공급망 역학이 GPU 가속기 아키텍처와 플랫폼 수준의 투자 우선순위를 재구성하는 방식

기술적 전환점과 시장 동향은 GPU 가속기 환경 전반에 걸쳐 혁신적인 변화를 가속화하고 있으며, 새로운 승자를 창출하는 동시에 시스템 통합 및 소프트웨어 최적화의 기준을 높이고 있습니다. 대규모 생성형 AI 모델과 엣지에서의 실시간 추론과 같은 새로운 워크로드의 등장으로 벤더와 고객은 메모리 계층, 노드 간 통신 지연, 전력 효율성에 대한 재검토를 요구하고 있습니다. 한편, 컴포저블 인프라와 분리형 메모리 모델의 채택은 새로운 시스템 설계 패턴의 창출을 촉진하고 있습니다.

2025년 관세 변경이 GPU 공급망, 조달 전략, 지역별 제조 결정에 미치는 운영 및 전략적인 영향에 대한 대응 방안

2025년 변화하는 무역 정책 환경은 기업이 단기적인 조달 계획과 장기적인 제품 계획 의사결정에 반영해야 하는 복잡성을 야기하고 있습니다. 미묘한 관세 변화와 규제 변화는 국경을 넘는 부품 유통의 경제성에 영향을 미치며, 이해관계자들이 대체 조립 거점을 평가하고, 지역 파트너십을 활용하며, 밸류체인에서 가치 창출의 위치를 재고하도록 유도하고 있습니다.

용도 요구사항, 폼팩터 선택, 최종사용자 우선순위, 메모리 구성, 실질적인 제품 및 시장 출시 의사결정을 위한 실용적인 세분화 인사이트를 제공

상세한 세분화 분석을 통해 용도, 제품, 최종사용자, 메모리 용량 등 각 차원별로 수요 패턴과 엔지니어링 우선순위가 어떻게 나뉘는지 파악할 수 있습니다. 용도별로는 고성능 컴퓨팅(HPC)과 머신러닝 및 AI(ML&AI)로 시장이 구분됩니다. HPC 분야에서는 과학 시뮬레이션 및 기상 모델링과 같은 워크로드가 중심이 되며, 결정론적 배정도 처리량과 예측 가능한 상호 연결 패턴이 중요시되고 있습니다. 한편, ML&AI 분야는 추론(Inference)과 학습(Training)으로 나뉘는데, 추론 워크로드는 클라우드와 엣지 환경으로 확대되고 있는 반면, 학습 워크로드는 스케일 아웃형 토폴로지와 상당한 메모리 대역폭을 요구합니다. 제품 유형별로는 PCI Express 및 SXM 폼팩터로 가속기가 제공됩니다. PCI Express는 기존 서버의 모듈식 확장을 지원하며, SXM은 하이퍼스케일 및 전용 시스템을 위한 고밀도, 고대역폭 설계를 실현합니다. 최종사용자별로는 클라우드 서비스 프로바이더, 기업, 정부 및 연구기관별로 구매 패턴이 다릅니다. 클라우드 프로바이더는 확장성과 오케스트레이션 스택과의 통합성을 중시하고, 기업은 도입의 편의성과 총소유비용을 우선시합니다. 정부 및 연구기관은 특수한 성능 특성과 장기적인 조달 주기에 초점을 맞추었습니다. 메모리 용량에 따라 17GB에서 32GB, 32GB 이상, 최대 16GB까지 다양한 구성이 가능하며, 메모리 용량은 모델 크기, 데이터세트의 상주성, 멀티 테넌트 통합 전략의 결정 요인이 됩니다.

지역별 수요 패턴, 규제 환경, 생태계 성숙도, 아메리카, 유럽/중동/아프리카, 아시아태평양에서의 차별화된 시장 진출 전략이 결정됩니다.

지역별 동향은 GPU 가속기 도입에 대한 수요 동향, 생태계 성숙도, 전략적 우선순위를 형성합니다. 아메리카 지역에서는 하이퍼스케일 클라우드의 확장, 기업내 AI 도입, 벤더와 시스템 통합사업자 간의 긴밀한 협력이 두드러지게 강조되고 있으며, 이는 대규모 도입의 빠른 반복을 지원하고 고밀도 및 고대역폭 솔루션에 대한 수요를 견인하고 있습니다. 유럽, 중동 및 아프리카에서는 규제 프레임워크, 국가 주도의 연구 구상, 엔지니어링 중심의 기업 기반이 결합되어 보안, 에너지 효율성, 지역 밀착형 지원 모델에 중점을 둔 맞춤형 솔루션에 대한 기회를 창출하고 있습니다. 아시아태평양에서는 국가 AI 전략에 대한 막대한 투자, 제조 역량, 다양한 클라우드 및 통신 사업자의 존재로 인해 극심한 경쟁 환경이 조성되어 훈련 및 추론 워크로드 모두에서 도입이 가속화되고 있습니다.

GPU 가속기 생태계에서 경쟁적 포지셔닝을 결정짓는 기업 전략, 파트너십 모델, 기술적 강점의 차이에 대한 인사이트

기업 차원의 동향은 전략적 태도의 차이를 반영하고 있습니다. 일부 벤더는 하이퍼스케일 트레이닝 클러스터의 성능을 극대화하기 위해 수직적 통합과 자체 최적화에 집중하는 반면, 다른 벤더는 개방형 생태계, 타사 소프트웨어 인증, 폭넓은 호환성을 강조하며 기업 및 엣지 부문을 확보하기 위해 노력하고 있습니다. 실리콘 설계, 메모리 서브시스템 엔지니어링, 열 관리, 컴파일러 최적화, 모델 병렬화 툴, 오케스트레이션 통합 등 소프트웨어 품질의 교차점에서 경쟁 차별화가 점점 더 많이 이루어지고 있습니다.

제조업체, 통합업체 및 구매자가 GPU 가속기 동향을 강력한 제품 및 상업 전략으로 전환할 수 있도록 실용적이고 우선순위가 부여된 권장사항 제공

업계 리더는 시장 동향을 지속적인 우위로 전환하기 위해 다음과 같은 실질적인 조치를 취해야 합니다. 첫째, 하드웨어 로드맵을 우선순위 워크로드와 일치시키는 것: 대상 용도를 폼팩터와 메모리 구성에 명확하게 매핑하고, 전략적 매출을 극대화할 수 있는 조합에 투자를 집중해야 합니다. 둘째, 소프트웨어 생태계와 상호운용성 테스트에 대한 투자를 통해 고객의 장벽을 낮추고 도입을 가속화합니다. 여기에는 일반적인 트레이닝 및 추론 파이프라인을 위한 규범적인 레퍼런스 아키텍처와 검증된 스택이 포함됩니다. 셋째, 관세 및 정책 변화에 대응할 수 있는 유연한 제조 및 공급 전략을 수립해야 합니다. 실현 가능한 범위 내에서 모듈식 설계와 다중 거점 조립을 활용합니다.

투명하고 재현 가능한 조사 방법을 통해 1차 인터뷰, 실험실 기반 검증, 엄격한 삼각 측량 등을 결합하여 실행 가능하고 신뢰할 수 있는 결과를 보장

본 조사는 1차 및 2차 정보를 통합하여 GPU 가속기에 대한 전체적인 그림을 종합적으로 파악할 수 있습니다. 1차 정보에는 기술 리더, 시스템 아키텍트, 조달 전문가, 도메인 과학자와의 구조화된 인터뷰가 포함되며, 실험실 기반 벤치마크 및 구성 테스트를 통해 성능 특성을 실증적으로 검증하는 실험이 추가됩니다. 2차 정보에는 공개 기술 문헌, 벤더 문서, 규제 관련 간행물, 클라우드 및 기업 환경에서의 도입 패턴에 대한 관찰 결과가 포함되며, 신뢰성과 맥락을 보장하기 위해 삼각 측량으로 검증됩니다.

진화하는 GPU 가속기 환경에서 하드웨어-소프트웨어-공급망의 통합된 탄력성이 경쟁 결과를 결정짓는다는 통합적 결론

요약하면, GPU 가속기 환경은 성숙기에 접어들었고, 하드웨어 선택, 소프트웨어 생태계, 공급 전략이 종합적으로 성공을 결정하는 플랫폼 중심 시장으로 전환하고 있습니다. 기술 혁신은 여전히 빠르게 진행되고 있지만, 전략적 차별화는 공급업체와 구매자가 가속기를 운영 프로세스, 수명주기 서비스, 광범위한 컴퓨팅 아키텍처에 어떻게 통합하는지에 따라 점점 더 많이 좌우되고 있습니다. 우선순위가 높은 워크로드에 제품 로드맵을 맞추고, 소프트웨어와 검증에 투자하고, 강력한 공급 및 지원 모델을 구축하는 조직은 지속가능한 가치를 창출하는 데 더 유리한 위치에 서게 될 것입니다.

목차

제1장 서문

제2장 조사 방법

제3장 개요

제4장 시장 개요

제5장 시장 인사이트

제6장 미국 관세의 누적 영향, 2025

제7장 AI의 누적 영향, 2025

제8장 GPU 액셀러레이터 시장 : 제품 유형별

제9장 GPU 액셀러레이터 시장 : 최종사용자별

제10장 GPU 액셀러레이터 시장 메모리 용량별

제11장 GPU 액셀러레이터 시장 : 용도별

제12장 GPU 액셀러레이터 시장 : 지역별

제13장 GPU 액셀러레이터 시장 : 그룹별

제14장 GPU 액셀러레이터 시장 : 국가별

제15장 미국 GPU 액셀러레이터 시장

제16장 중국 GPU 액셀러레이터 시장

제17장 경쟁 구도

KSA
영문 목차

영문목차

The GPU Accelerator Market was valued at USD 8.47 billion in 2025 and is projected to grow to USD 9.24 billion in 2026, with a CAGR of 10.24%, reaching USD 16.77 billion by 2032.

KEY MARKET STATISTICS
Base Year [2025] USD 8.47 billion
Estimated Year [2026] USD 9.24 billion
Forecast Year [2032] USD 16.77 billion
CAGR (%) 10.24%

Framing the strategic imperative for GPU accelerators as converging compute demands and software innovation redefine infrastructure priorities across industries

The GPU accelerator landscape is at the intersection of relentless compute demands and rapid algorithmic advancement, creating an imperative for leaders to reassess infrastructure, procurement, and innovation strategies. Organizations across cloud providers, research institutions, and enterprises face a shifting competitive dynamic as GPUs become central to both traditional high performance computing workloads and the modern machine learning lifecycle.

Against this backdrop, the introduction contextualizes how architecture choices, interconnect technologies, memory configurations, and deployment footprints converge to shape performance, cost, and time-to-value. It also highlights the strategic trade-offs between specialized accelerator form factors and the broader ecosystem of software libraries, orchestration tools, and partner relationships. This section sets the stage for the analysis that follows by clarifying the drivers that matter most to decision-makers and framing the critical questions that influence procurement and design roadmaps.

How emerging workload demands, software abstraction, and supply chain dynamics are reshaping GPU accelerator architectures and platform-level investment priorities

Technical inflection points and market forces are accelerating transformative shifts across the GPU accelerator landscape, creating new winners and raising the bar for system integration and software optimization. Emerging workloads, particularly large-scale generative AI models and real-time inference at the edge, are pushing vendors and customers to rethink memory hierarchies, inter-node communication latency, and power efficiency, while the adoption of composable infrastructure and disaggregated memory models is prompting fresh system design patterns.

Meanwhile, software innovation continues to compress the time from model development to deployment. Frameworks and compilers that abstract hardware complexity are maturing, enabling a broader set of engineering teams to leverage accelerators without deep device-level specialization. In addition, supply chain resilience and shifts in procurement strategies are incentivizing diversification of hardware form factors and closer collaboration between hyperscalers, OEMs, and independent software vendors. Together, these forces are driving a reorientation from isolated accelerator purchases to platform-level investments that prioritize lifecycle management, observability, and total cost of ownership considerations.

Navigating the operational and strategic effects of 2025 tariff shifts on GPU supply chains, procurement strategies, and regional manufacturing decisions

The evolving trade policy landscape in 2025 is introducing a layer of complexity that companies must incorporate into near-term sourcing and long-term product planning decisions. Tariff changes and regulatory nuances influence the economics of cross-border component flows, incentivizing stakeholders to evaluate alternative assembly footprints, leverage localized partnerships, and reconsider where value is captured in the supply chain.

In response to tariff dynamics, many organizations are accelerating regional qualification of suppliers and increasing focus on modular designs that can be adapted to different manufacturing footprints. This mitigates exposure to abrupt cost changes and helps preserve lead times for critical components. At the same time, strategic procurement teams are deepening engagement with contract manufacturers and logistics providers to maintain clarity around duty regimes and to optimize landed cost through tariff engineering and compliant value-chain restructuring. As a result, procurement, legal, and product teams must align early and continuously so that pricing, certification, and product roadmaps remain resilient to evolving trade measures.

Actionable segmentation insights connecting application demands, form factor choices, end-user priorities, and memory configurations to practical product and go-to-market decisions

Detailed segmentation insights reveal how demand patterns and engineering priorities diverge across application, product, end user, and memory-size dimensions. Based on application, the market divides into High Performance Computing and Machine Learning & AI; within High Performance Computing, usage concentrates on Scientific Simulation and Weather Modeling workloads that favor deterministic double-precision throughput and predictable interconnect patterns, while Machine Learning & AI splits into Inference and Training where inference workloads are increasingly deployed across Cloud and Edge environments and training workloads demand scale-out topologies and significant memory bandwidth. Based on product type, accelerators are offered in PCI Express and SXM form factors, with PCI Express serving modular expansion in conventional servers and SXM enabling denser, high-bandwidth designs for hyperscale and purpose-built systems. Based on end user, buying patterns differ among Cloud Service Providers, Enterprise, and Government & Research Institutes: cloud providers emphasize scalability and integration with orchestration stacks, enterprises prioritize deployment simplicity and total cost of ownership, and government and research entities focus on specialized performance characteristics and long-term procurement cycles. Based on memory size, configurations span 17GB to 32GB, Above 32GB, and Up To 16GB, with memory capacity acting as a gating factor for model size, dataset residency, and multi-tenant consolidation strategies.

Taken together, these segmentation dimensions inform product roadmaps and go-to-market approaches. For example, training clusters targeting large foundation models often prioritize SXM variants and Above 32GB memory to support massive parameter counts and high interconnect throughput, while edge inference and enterprise use cases may favor PCI Express cards in Up To 16GB or mid-range 17GB To 32GB classes to balance latency, power, and cost. Understanding how these segments interact enables more precise mapping of technical features to buyer requirements and supports differentiated value propositions across customer cohorts.

How regional demand patterns, regulatory environments, and ecosystem maturity in the Americas, Europe Middle East & Africa, and Asia-Pacific determine differentiated go-to-market strategies

Regional dynamics shape demand signals, ecosystem maturity, and strategic priorities for GPU accelerator adoption. In the Americas, there is a pronounced emphasis on hyperscale cloud expansion, enterprise AI adoption, and close collaboration between vendors and system integrators, which supports rapid iteration on large-scale deployments and drives demand for dense, high-bandwidth solutions. In Europe, the Middle East & Africa, regulatory frameworks, sovereign research initiatives, and a strong base of engineering-driven enterprises create opportunities for tailored solutions that emphasize security, energy efficiency, and localized support models. In Asia-Pacific, substantial investment in national AI strategies, manufacturing capabilities, and a broad array of cloud and telecom operators fosters a highly competitive supplier environment and accelerates adoption across both training and inference workloads.

As a consequence, regional go-to-market strategies must account for differences in procurement cycles, certification requirements, and partner ecosystems. For example, sellers targeting Americas-based hyperscalers should focus on rapid integration and performance per watt, while those pursuing Europe, Middle East & Africa need to demonstrate compliance, sustainability credentials, and robust support. Similarly, Asia-Pacific engagements benefit from flexible supply agreements and co-development arrangements that align with regional engineering resources and manufacturing proximities. These distinctions are essential for prioritizing investments in sales coverage, technical support, and localized partnerships.

Insights into how differing corporate strategies, partnership models, and technical strengths determine competitive positioning in the GPU accelerator ecosystem

Company-level dynamics reflect divergent strategic postures: some vendors concentrate on vertical integration and proprietary optimizations to extract maximum performance for hyperscale training clusters, while others emphasize open ecosystems, third-party software certification, and broader compatibility to capture enterprise and edge segments. Competitive differentiation increasingly derives from the intersection of silicon design, memory subsystem engineering, thermal management, and software quality, including compiler optimizations, model parallelism tooling, and orchestration integrations.

Strategic partnerships also play a pivotal role. Collaboration between accelerator designers, OEMs, cloud providers, and independent software vendors accelerates time-to-deployment and expands addressable use cases. Companies that can offer end-to-end solutions - from silicon and reference architectures to validated stacks and lifecycle management services - position themselves to capture long-term value. Additionally, a focus on supportability, firmware lifecycle, and robust security hardening is becoming table stakes for customers with production AI workloads, which elevates the importance of post-sales engineering and field services in maintaining competitive advantage.

Practical and prioritized recommendations enabling manufacturers, integrators, and buyers to translate GPU accelerator trends into resilient product and commercial strategies

Industry leaders should adopt a set of pragmatic actions to convert market signals into durable advantage. First, align hardware roadmaps with prioritized workloads: explicitly map target applications to form factor and memory configurations so that investment focuses on the combinations with the highest strategic return. Second, invest in software ecosystems and interoperability testing to reduce friction for customers and enable faster adoption; this includes prescriptive reference architectures and validated stacks for common training and inference pipelines. Third, develop flexible manufacturing and supply strategies that can adapt to tariff and policy shifts, leveraging modular designs and multiple assembly locations where feasible.

Furthermore, organizations should deepen partnerships with cloud platforms, system integrators, and research institutions to de-risk deployments and broaden channel reach. They should also formalize lifecycle services, including firmware updates, security patches, and capacity planning assistance, to increase stickiness and demonstrate total value beyond raw performance. Finally, adopt a data-driven approach to product prioritization by instrumenting deployments and capturing telemetry that informs iterative improvements in power efficiency, thermal design, and software optimization. These recommendations, when applied consistently, will help leaders capture value across both immediate opportunities and longer-term platform transitions.

A transparent, reproducible research methodology combining primary interviews, lab-based validation, and rigorous triangulation to ensure actionable and trustworthy insights

This research synthesizes primary and secondary inputs to build a comprehensive understanding of the GPU accelerator landscape. Primary inputs include structured interviews with technology leaders, system architects, procurement specialists, and domain scientists, supplemented by hands-on validation of performance characteristics through lab-based benchmarking and configuration testing. Secondary inputs consist of public technical literature, vendor documentation, regulatory publications, and observed deployment patterns across cloud and enterprise environments, all of which are triangulated to ensure reliability and context.

The methodology emphasizes reproducibility and transparency: test configurations are documented, assumptions are declared, and cross-validation steps are used to reconcile differing accounts. Where possible, comparative performance observations are corroborated with configuration-level details rather than inferred from vendor claims alone. Additionally, the research adopts scenario analysis to surface risk vectors such as supply-chain disruptions, tariff changes, and rapid workload shifts, and it reports findings with clear caveats and confidence levels to help readers interpret applicability to their specific contexts.

Consolidated conclusions on how integration of hardware, software, and supply resilience will determine competitive outcomes in the evolving GPU accelerator landscape

In sum, the GPU accelerator environment is maturing into a platform-centric market where hardware choices, software ecosystems, and supply strategies collectively determine success. Technical innovation remains rapid, but strategic differentiation increasingly depends on how vendors and buyers integrate accelerators into operational processes, lifecycle services, and broader compute architectures. Organizations that align product roadmaps to prioritized workloads, invest in software and validation, and build resilient supply and support models will be better positioned to extract sustained value.

Looking ahead, stakeholders must remain vigilant to shifts in workload composition, regulatory contexts, and ecosystem dynamics. By maintaining a disciplined approach to segmentation, regional strategy, and partnership development, decision-makers can reduce risk and accelerate adoption of GPU-accelerated solutions that meet evolving performance, cost, and sustainability objectives.

Table of Contents

1. Preface

2. Research Methodology

3. Executive Summary

4. Market Overview

5. Market Insights

6. Cumulative Impact of United States Tariffs 2025

7. Cumulative Impact of Artificial Intelligence 2025

8. GPU Accelerator Market, by Product Type

9. GPU Accelerator Market, by End User

10. GPU Accelerator Market, by Memory Size

11. GPU Accelerator Market, by Application

12. GPU Accelerator Market, by Region

13. GPU Accelerator Market, by Group

14. GPU Accelerator Market, by Country

15. United States GPU Accelerator Market

16. China GPU Accelerator Market

17. Competitive Landscape

(주)글로벌인포메이션 02-2025-2992 kr-info@giikorea.co.kr
ⓒ Copyright Global Information, Inc. All rights reserved.
PC버전 보기