최전선 AI 모델 수 동향: 2028년까지의 예측

2023년과 2028년 사이에 대규모 기초 모델의 극적인 성장을 예측하는 데이터 기반 예측으로, EU AI 법과 같은 새로운 AI 거버넌스 프레임워크 하에서 얼마나 많은 모델이 훈련 컴퓨팅 임계값을 초과할지를 평가합니다.

CartaNova

2025. 7. 6.

저자: Iyngkarran Kumar, Sam Manning

링크: https://arxiv.org/abs/2504.16138

요약

이 논문은 향후 몇 년간 프론티어 AI 모델이 글로벌 AI 거버넌스 프레임워크에 의해 제안된 규제 정의 하에서 주요 학습 컴퓨팅 한계를 초과할 가능성이 있는 데이터 기반 예측을 제시합니다.

이 연구는 정책 입안자들이 일반 목적 AI(GPAI) 시스템과 관련된 증가하는 규제 부담을 예상하고 관리하는 데 도움을 주기 위한 것입니다. 과거의 컴퓨팅 트렌드를 사용하여 저자들은 다음과 같은 제한을 초과할 가능성이 있는 모델 수를 추정합니다:

  • EU AI법 - 10²⁵ FLOPs 한계

  • 미국 AI 행정명령(2023년 10월) - 10²⁶ FLOPs 한계(“제어 모델”로 레이블 지정됨)

동기

규제당국은 점점 더 학습 컴퓨팅을 잠재적 모델 능력, 위험 수준 및 감독 요구 사항을 측정할 수 있는 대리로 삼고 있습니다. 그러나 이전의 연구에서는 이 한계에 해당하는 모델 수를 예측하려는 시도가 거의 없었습니다.

AI 하드웨어, 소프트웨어 및 모델 디자인의 급속한 혁신으로 인해 이러한 한계에 도달하는 모델 수가 가속화될 것으로 예상되며, 그로 인해 다음과 같은 새로운 거버넌스 도전 과제가 발생할 수 있습니다:

  • 규제 시스템의 과포화

  • 집행 자원의 압박

  • 실제 모델 배치와 정책의 불일치

예측 방법론

저자들은 2017년부터 2023년까지 AI 모델의 학습 컴퓨팅에 대한 상세한 역사적 데이터를 포함한 Epoch AI 주목할 만한 모델 데이터세트를 사용합니다. 그들은 다음을 기반으로 예측을 구축합니다:

  • 학습 컴퓨팅 트렌드(플롭 기준)

  • 모델 출시 비율

  • 예상되는 하드웨어/소프트웨어 효율성 향상

  • 조직 행동 패턴

모델은 수천 개의 잠재적 미래를 생성하는 몬테카를로 시뮬레이션을 출력하며, 이로부터 중앙값 및 신뢰 구간이 도출됩니다.

주요 예측

  • 2028년 말까지, 연구는 다음과 같은 예측을 합니다:

    • 103에서 306개 모델이 10²⁵ FLOPs 한계를 초과할 것이라고 예측합니다(EU 기준)

    • 45에서 148개 모델이 10²⁶ FLOPs 한계를 초과할 것이라고 예측합니다(미국 기준)

  • 컴퓨팅 성장률은 초선형일 것으로 예상되며, 이는 대규모 모델 수가 매년 더 빨리 성장할 것을 의미합니다.

프론티어-연결 한계 도입

정적 규제가 시대에 뒤떨어지는 우려를 해결하기 위해, 저자들은 "프론티어-연결 한계"라는 아이디어를 제안합니다. 이는 다음과 같은 한계입니다:

  • 가장 큰 알려진 모델의 크기를 기준으로 동적으로 조정

  • 시간에 따라 실세계 모델 능력을 반영하도록 조정

  • 과도한 규제나 과소한 규제를 줄이기 위해 이동 가능한 기준 제공

이 접근 방식은 빠르게 변화하는 기술 환경 속에서도 규제 범위를 안정화하는 데 도움을 줄 수 있습니다.

정책적 함의

  • 규제 부담이 현재의 정적 한계 아래에서 상당히 증가할 것입니다.

  • AI 거버넌스 기구는 한계가 조정되지 않으면 압도당할 수 있습니다.

  • 계층화된 한계, 동적 스케일링모델 분류 시스템과 같은 보다 유연한 메커니즘이 필요할 수 있습니다.

저자들은 정책 결정자들이 다음을 예상할 것을 촉구합니다:

  • 모델 등록, 검토 및 모니터링에 대한 수요 증가

  • 미세 조정, 공개 가중치 및 파생 모델로 인한 위험 환경 변화

  • 개발자가 아키텍처 변경을 통해 한계를 의도적으로 회피할 가능성

제한 사항 및 불확실성

  • 데이터세트가 불완전하거나 공개적으로 알려진 모델에 대해 편향되어 있을 수 있습니다.

  • 예측은 현재 개발 트렌드의 연속성을 가정합니다.

  • 새로운 학습 패러다임, 모델 압축 또는 오픈 가중치의 확산의 영향은 이러한 예측을 방해할 수 있습니다.

결론

이 논문은 AI 거버넌스 커뮤니티에 중요한 초기 경고를 제공합니다: 프론티어 AI 모델의 수는 향후 3년 이내에 폭발적으로 증가할 가능성이 있으며, 현재 마련된 규제 프레임워크를 훨씬 초과할 것입니다. 따라서 정적인 컴퓨팅 한계는 곧 비현실적으로 변할 수 있으며, 보다 스마트하고 더 적응 가능한 거버넌스 도구가 시급히 필요합니다.

미래 모델의 성장 가능성을 정량화하고 이를 기존의 정책 경계와 비교함으로써, 저자들은 보다 확장 가능하고 지속 가능하며 위험 비례적인 AI 감독을 위한 기반을 제공합니다.

More Insights

[

ARTICLE

]

AWS를 활용한 데이터 거버넌스 아키텍처 구축

이 다이어그램은 강력한 데이터 거버넌스를 구축하기 위해 설계된 종단 간 아키텍처를 설명하고 있으며, 아마존 웹 서비스(AWS) 도구 모음을 사용합니다. 이 구조는 조직이 안전하고 확장 가능한 환경에서 데이터를 수집, 수집, 저장, 처리, 분석 및 시각화할 수 있도록 합니다. 전체 흐름은 데이터 수명 주기에서 각 주요 기능을 수행하는 여섯 가지 주요 단계로 나뉩니다.

[

ARTICLE

]

AWS를 활용한 데이터 거버넌스 아키텍처 구축

이 다이어그램은 강력한 데이터 거버넌스를 구축하기 위해 설계된 종단 간 아키텍처를 설명하고 있으며, 아마존 웹 서비스(AWS) 도구 모음을 사용합니다. 이 구조는 조직이 안전하고 확장 가능한 환경에서 데이터를 수집, 수집, 저장, 처리, 분석 및 시각화할 수 있도록 합니다. 전체 흐름은 데이터 수명 주기에서 각 주요 기능을 수행하는 여섯 가지 주요 단계로 나뉩니다.

[

ARTICLE

]

AWS를 활용한 데이터 거버넌스 아키텍처 구축

이 다이어그램은 강력한 데이터 거버넌스를 구축하기 위해 설계된 종단 간 아키텍처를 설명하고 있으며, 아마존 웹 서비스(AWS) 도구 모음을 사용합니다. 이 구조는 조직이 안전하고 확장 가능한 환경에서 데이터를 수집, 수집, 저장, 처리, 분석 및 시각화할 수 있도록 합니다. 전체 흐름은 데이터 수명 주기에서 각 주요 기능을 수행하는 여섯 가지 주요 단계로 나뉩니다.

[

PAPER

]

온톨로지 개발 101: 첫 번째 온톨로지 만들기를 위한 가이드

온톨로지 생성에 대한 실용적인 소개인 이 가이드는 도메인 범위 정의, 기존 어휘 재사용, 클래스 계층 구조, 속성 및 인스턴스 구축을 포함한 단계별 방법론을 설명하고, Protégé-2000 내에서의 의미적 관계 및 반복적 개선과 같은 복잡한 설계 문제를 다룹니다.

[

PAPER

]

온톨로지 개발 101: 첫 번째 온톨로지 만들기를 위한 가이드

온톨로지 생성에 대한 실용적인 소개인 이 가이드는 도메인 범위 정의, 기존 어휘 재사용, 클래스 계층 구조, 속성 및 인스턴스 구축을 포함한 단계별 방법론을 설명하고, Protégé-2000 내에서의 의미적 관계 및 반복적 개선과 같은 복잡한 설계 문제를 다룹니다.

[

PAPER

]

온톨로지 개발 101: 첫 번째 온톨로지 만들기를 위한 가이드

온톨로지 생성에 대한 실용적인 소개인 이 가이드는 도메인 범위 정의, 기존 어휘 재사용, 클래스 계층 구조, 속성 및 인스턴스 구축을 포함한 단계별 방법론을 설명하고, Protégé-2000 내에서의 의미적 관계 및 반복적 개선과 같은 복잡한 설계 문제를 다룹니다.

[

PAPER

]

자기 보상 언어 모델

이 논문은 자기 보상 언어 모델(Self-Rewarding Language Models)을 소개합니다. 여기서 대형 언어 모델은 외부 보상 모델에 의존하지 않고 자체 출력을 반복적으로 생성, 평가 및 최적화하여 자기 정렬 및 성능 향상의 새로운 패러다임을 확립합니다.

[

PAPER

]

자기 보상 언어 모델

이 논문은 자기 보상 언어 모델(Self-Rewarding Language Models)을 소개합니다. 여기서 대형 언어 모델은 외부 보상 모델에 의존하지 않고 자체 출력을 반복적으로 생성, 평가 및 최적화하여 자기 정렬 및 성능 향상의 새로운 패러다임을 확립합니다.

[

PAPER

]

자기 보상 언어 모델

이 논문은 자기 보상 언어 모델(Self-Rewarding Language Models)을 소개합니다. 여기서 대형 언어 모델은 외부 보상 모델에 의존하지 않고 자체 출력을 반복적으로 생성, 평가 및 최적화하여 자기 정렬 및 성능 향상의 새로운 패러다임을 확립합니다.

주식회사 카르타노바

Tokyo

도쿄도 미나토구 기타아오야마 2초메 14-4, 더 아가일 아오야마 5층 (107-0061)

Seoul

서울특별시 강남구 테헤란로79길 6, 4층 브이434(삼성동, 제이에스타워) (06158)

© 2025 CartaNova, Inc. All Rights Reserved.

주식회사 카르타노바

Tokyo

도쿄도 미나토구 기타아오야마 2초메 14-4, 더 아가일 아오야마 5층 (107-0061)

Seoul

서울특별시 강남구 테헤란로79길 6, 4층 브이434(삼성동, 제이에스타워) (06158)

© 2025 CartaNova, Inc. All Rights Reserved.

주식회사 카르타노바

Tokyo

도쿄도 미나토구 기타아오야마 2초메 14-4, 더 아가일 아오야마 5층 (107-0061)

Seoul

서울특별시 강남구 테헤란로79길 6, 4층 브이434(삼성동, 제이에스타워) (06158)

© 2025 CartaNova, Inc. All Rights Reserved.