
첫 번째, 인공지능 기술 분야입니다. 첫 번째, 사우스차이나모닝포스트 보도 내용입니다. 중국 AI 기업 아이플라이텍이 중국 화웨이 AI 칩만 이용해 훈련을 거친 추론 모델 '싱훠 X1'을 공개했으며, 전반적인 성능은 오픈AI의 o1 및 딥시크의 R1과 대등한 수준입니다. 이는 미국 정부의 엔비디아 'H20' 칩 수출 규제 가운데 발표된 것으로, 화웨이와의 협업을 통해 '어센드 910' 칩 효율을 대폭 향상시켰으며, 상호연결 대역폭의 한계를 극복했습니다. 이번 발표는 미국의 수출 금지 조치 이후 화웨이가 AI 칩 '어센드 920'을 공개한 것과 맞물려 중국 내 AI 인프라의 자립 가능성을 보여주는 사례입니다.
두 번째, AI타임스 보도 내용입니다. 국내 AI 반도체 기업 모빌린트가 저전력 환경에서의 대규모 추론 연산을 안정적으로 처리할 수 있는 MXM 타입 AI 가속기 모듈 'MLA100 MXM'을 출시했습니다. MXM은 입출력 PCI 익스프레스를 사용하는 컴퓨터 GPU를 위한 인터커넥트 표준이고, AI 가속기는 AI 연산을 빠르게 수행하기 위한 하드웨어로 CPU로 감당하기 어려운 연산량을 효율적으로 처리하도록 설계됩니다. 'MLA100 MXM'은 25W 저전력 환경에서 최대 80TOPS의 성능을 제공하며, 8개의 고성능 코어를 통해 복수의 AI 모델을 병렬 실행하거나 대규모 추론 연산을 소화할 수 있습니다. 공간 제약과 발열 관리가 중요한 로보틱스, 산업자동화 등 임베디드 AI 시스템에 적합하고, 대규모 언어 모델 처리가 가능해 기존 GPU 기반 엣지 솔루션의 대안으로 제시됩니다.
세 번째, 와이어드 보도 내용입니다. 미국 AI 스타트업 플라워AI와 탈중앙화 데이터 플랫폼 Vana가 데이터 센터의 구축이 별도로 필요하지 않은 대형언어모델 콜렉티브-1을 개발했습니다. 데이터 센터는 AI 모델의 학습과 추론에 필요한 방대한 데이터를 고속처리하기 위한 프로세서, 메모리, 냉각장치 등으로 구성됩니다. 콜렉티브-1의 방식은 인터넷에 연결된 다양한 하드웨어에서 훈련을 나눠 수행하여 네트워크가 느린 환경에서도 협업이 가능하고 하드웨어 추가를 통해 손쉽게 확장할 수 있습니다.

상담센터(1544-8080)
공공누리 공공저작물 자유이용허락 출처표시