오픈 AI는 최근 웨이퍼 스케일 엔진(Wafer Scale Engine, 이하 WSE)을 개발하는 미국의 스타트업인 세레브라스(Cerebras)와 인프라 도입 계약을 체결했습니다. 세레브라스의 WSE 기반의 750MW 데이터 센터를 구축하는 계획으로 2028년 가동을 목표로 하고 있습니다. 투자 규모는 공개하지 않았지만, 일부 언론 보도에서는 100억 달러에 달하는 것으로 추정되고 있습니다. 오픈 AI는 세레브라스의 최신 WSE3-3 기반의 GPT-5.3-Codex-Spark를 공개해 이 프로세서에서 가능성을 보여주고 있습니다.
물론 현재는 엔비디아 의존도가 여전히 높고 두 회사가 기존에 맺은 상호 투자 계획들은 여전히 유효하지만, 이런 행보는 오픈 AI가 새로운 대안을 찾고 있다는 인상을 주기에는 충분합니다. 이를 통해 엔비디아와의 협상에서 우위를 점하는 것은 물론 더 비용 합리적인 대안을 찾을 수도 있는 것입니다. 다만 웨이퍼 스케일 엔진이라는 새로운 기술을 들고나온 세레브라스가 실제 그만큼의 성과를 보여줄 수 있을지는 아직 미지수입니다.
세레브라스는 2015년 설립된 스타트업으로 2019년 첫 번째 WSE 제품을 내놓았습니다. 이 기술에 웨이퍼 스케일이라는 명칭이 붙은 이유는 간단합니다. 프로세서를 만들 때 사용되는 둥근 원판인 웨이퍼를 잘라서 칩을 만드는 게 아니라 웨이퍼 전체를 통째로 하나의 프로세서로 사용하기 때문입니다.
현대적인 프로세서와 메모리 모두 웨이퍼를 잘라서 제품을 만들고 있지만, 웨이퍼를 여러 개로 잘라서 프로세서를 만든 후 이들을 별도의 시스템에서 병렬로 연결한다는 것은 사실 제조 비용 상승은 물론 프로세서 간 데이터 전송 시 발생하는 병목현상으로 인해 성능이 떨어질 우려가 있습니다.
따라서 발상을 바꿔 아예 웨이퍼 하나를 통째로 멀티코어 프로세서로 활용하자는 아이디어는 이전부터 있어 왔으나 몇 가지 큰 걸림돌이 있어 실현되지는 못했습니다. 첫 번째는 프로세서 제조 과정에서 사소한 오류 하나만 생겨도 웨이퍼 전체를 못 쓰게 되는 위험성이 있다는 것입니다. 예를 들어 기존의 프로세서는 웨이퍼 하나에서 150개 정도의 제품이 나왔을 때 100개 정도만 양품이면 나머지 50개를 버려도 충분히 수익을 낼 수 있습니다. 하지만 웨이퍼 전체에서 치명적인 오류가 한 번만 발생하면 웨이퍼 전체를 못 쓰게 되어 손해가 클 수밖에 없습니다.
웨이퍼 안에 수많은 코어를 탑재할 경우 코어 간 병목 현상과 메모리 병목 현상 역시 우려될 수 있는 문제입니다. 마지막으로 이렇게 거대한 프로세서는 전력 소모량과 발열량 역시 엄청나게 클 수밖에 없어 실용적인 시스템을 구축하기 힘들었습니다.
세레브라스는 새로운 방법으로 이 한계를 극복했습니다. 우선 하나의 큰 코어 대신 작은 코어 여러 개를 연결해 반복되는 구조를 만든 후 각 코어가 모두 연결되어 있어 일부 코어와 연결 회로에 오류가 생기더라도 나머지 부분이 정상 작동하도록 만들었습니다. 그리고 대용량의 SRAM을 프로세서에 통합해 메모리 병목 현상을 최소화했습니다.
2024년 공개한 세레브라스의 최신 프로세서인 WSE-3의 경우 TSMC의 5nm 공정을 이용해 4조 개의 트랜지스터를 집적한 역대 가장 거대한 프로세서로 90만 개의 코어를 집적했습니다. 실제로는 90만 개보다 더 많은 코어를 넣어서 오류가 나더라도 90만 개 정도의 코어 숫자를 보장한 것입니다.
하지만 코어가 많다고 해서 성능이 바로 그만큼 높아지는 것은 아닙니다. 구슬이 서말이라도 꿰어야 보배라는 속담처럼, 수많은 코어가 유기적으로 연결되어야 합니다. WSE-3는 코어들은 거대한 메쉬(Mesh) 구조로 연결되어 있습니다. 하나의 실리콘 안에서 모든 코어가 연결된 덕분에 수천 개의 GPU를 묶을 때 발생하는 병목 현상을 피하고 데이터 전송 속도가 매우 빠른 것이 특징입니다.
WSE-3는 90만 개의 코어를 뒷받침하기 위해 44GB SRAM 메모리를 칩에 통합하고 있습니다. 다만 이것만으로는 대규모 AI 연산에 필요한 대규모 데이터를 모두 담을 수 없기 때문에 가중치(Weights)를 칩 외부의 전용 스토리지에 보관하고, 연산 시 필요한 부분만 초고속 스트리밍으로 칩에 공급하는 방식을 사용합니다.
이런 독특한 구조를 통해 웨이퍼 스케일 엔진 기술은 기본 AI 프로세서가 지닌 한계를 극복할 차세대 AI 솔루션으로 주목받고 있습니다. 하지만 장밋빛 미래만 보이는 것은 아닙니다. 현재 AI 생태계 자체가 엔비디아의 CUDA에 기반해 있고 AI 서비스 솔루션 자체도 GPU에 최적화되어 있다는 점은 무시하기 어려운 장벽입니다.
더구나 현재도 적자인 오픈 AI는 여기저기 투자 계획과 협업 프로젝트를 발표하고 있지만, 이 막대한 자금들을 어디서 조달할 수 있을지 의구심이 제기되고 있습니다. 지금 흑자를 내고 있다고 해도 앞으로 계획된 투자를 진행하기 위해서 필요한 천문학적인 자금을 조달하기는 쉽지 않을 것입니다. 그런데 또 대규모 투자 계획을 발표하니 의문이 제기되는 것도 당연합니다.
마지막으로 실제 WSE-3나 혹은 그 후속 프로세서들이 이론이 아니라 실제로 엔비디아의 GPU보다 더 앞선 성능을 보여줄 수 있는지 역시 충분히 검증되지 않은 상태입니다. 현재 여러 AI 제조사가 자사의 기술이 엔비디아보다 우월하다고 주장하고 있지만, 현재까지 의미 있는 대항마로 성장한 곳은 구글의 TPU 정도이며 오랜 라이벌인 AMD 조차도 아직 엔비디아의 아성에 도전할 수준은 되지 않고 있습니다.
오랜 세월 축적된 엔비디아의 기술을 신생 스타트업이 쉽게 뛰어넘을 수 있을지 아무래도 의문인데, 확실하지 않은 곳에 많은 자금을 투자할 정도로 재무 사정이 넉넉하지 않아 보인다는 것이 솔직한 평가일 것입니다. 물론 엔비디아의 현재 모습을 10년 전 대부분 예상 못한 것처럼 앞으로 10년 후 역시 예상하기 어려운 게 사실입니다. 과연 10년 후 엔비디아의 독점이 계속 유지될 수 있을지, 아니면 예상치 못한 다크호스가 시장을 뒤흔들게 될지 궁금합니다.
고든 정 과학 칼럼니스트 jjy0501@naver.com
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지












































