1티피1티

미국의 칩 금지에도 불구하고 중국의 AI 생태계는 기대치를 넘어섰으며, 특히 Alibaba의 오픈소스 Qwen 시리즈가 커뮤니티에서 널리 채택되고 논의됨에 따라 개발자들의 국제적 관심을 얻고 있습니다.

중국은 다양한 이유로 완전히 분리된 AI 생태계를 만들었습니다. 1) 서구에 대한 의존도를 낮추기 위해서, 2) 인터넷 만리장성의 검열 제약 때문입니다. 그렇다고 해서 혁신이 억제되는 것은 아닙니다.

현재 중국에는 AI 생태계 전반에 걸쳐 매우 역동적인 참여자들이 있으며, 오늘은 이 분야에서 알리바바가 맡고 있는 역할에 대해 자세히 알아보겠습니다.

회사인프라 계층모델 레이어애플리케이션 계층
알리바바알리바바 클라우드는 오픈 소스 모델과 광범위한 AI 서비스를 지원하는 강력한 클라우드 인프라를 제공합니다.Qwen-72B와 Qwen-1.8B는 Alibaba Cloud가 개발한 고급 LLM으로 멀티모달 처리 기능을 갖추고 있습니다.Dingtalk, 기업용 채팅 플랫폼 Alimama, Tmall 및 Taobao에서 판매하는 중소기업을 위한 AI 기반 광고 최적화 도구 세트.
텐센트Tencent는 지능형 고성능 네트워크를 통해 AI 역량을 강화하고 LLM 교육을 위한 GPU 사용을 최적화합니다.Hunyuan은 효율성과 비용 효과성에 초점을 맞춘 기업용 애플리케이션을 목표로 하는 Tencent의 사내 LLM입니다.Tencent의 AI 서비스에는 다음이 포함됩니다. 기존 앱 전반에 개인화된 뉴스 피드와 챗봇 솔루션을 제공합니다.
화웨이Huawei Cloud는 기술의 자립성에 중점을 두고 AI 애플리케이션에 맞춤화된 고성능 인프라를 제공합니다.Pangu 3.0은 여러 산업 분야에서 다양한 애플리케이션을 위해 설계된 기본 모델, 산업별 모델, 시나리오별 모델로 구성되어 있습니다.Huawei의 LLM은 금융, 의료 등 다양한 산업에서 디지털 혁신 노력을 강화하는 데 활용됩니다.
바이트댄스ByteDance는 클라우드 인프라를 활용하여 LLM 배포를 지원하고 AI 서비스의 비용 효율성을 강조합니다.Doubao는 ByteDance가 출시한 LLM 제품군으로, 공격적인 가격 책정 전략을 통해 다양한 애플리케이션을 위해 설계되었습니다.Doubao Chatbot과 기타 생성 AI 도구와 같은 애플리케이션은 사용자 상호작용과 콘텐츠 생성을 향상시키는 것을 목표로 합니다.
바이두바이두 클라우드는 AI의 기술 발전에 초점을 맞춰 AI 모델의 훈련과 배포를 위한 포괄적인 인프라를 제공합니다.Ernie는 Baidu의 대표적인 LLM으로, 시간이 지남에 따라 교육 효율성과 애플리케이션 성능에서 상당한 개선이 나타났습니다.바이두 애플리케이션은 향상된 검색 기능, 대화형 에이전트 및 기타 AI 기반 솔루션을 위해 Ernie를 활용합니다.

조 차이는 알리바바의 AI 전략에 대해 설명하면서, 기존 클라우드 사업을 활용하여 AI 인프라를 지원하는 데 중점을 두고 있습니다.

알리바바의 AI 플레이북

알리바바는 5가지 주요 방법으로 AI에 투자하며, 두 가지 전략을 병행합니다.

종단간 기술 스택 전략:

  1. 자체 LLM 구축 – Qwen 및 AI 빌더에게 LLM 제공  
  2. 클라우드 컴퓨팅 서비스
  3. AI 애플리케이션 처리에 맞춰 칩을 설계합니다.

생태계 전략:

  1. 기존 소비자 대상 애플리케이션에 AI 구현 
  2. 생태계 전반의 AI 기업에 자금 지원 

알리바바는 선도적인 클라우드 사업과 자체 독점 LLM 기술을 보유한 국제적으로 가장 잘 알려진 중국 기술 회사입니다. 중국에서는 바이두와 화웨이가 각자의 모델과 클라우드 서비스를 보유하고 있지만, 바이두의 데이터 중심 전략은 항상 자율 주행 기술에 더 집중되어 왔고 화웨이는 항상 컴퓨팅과 하드웨어에 더 집중해 온 반면, LLM은 기업 고객에게 "갖고 있으면 좋은" 추가 기능으로 여겨집니다. 

이와 대조적으로 알리바바는 "모든 사람이 AI에 접근할 수 있도록 하는 것"이 목표라고 거듭해서 밝혔다. 2024년 Apsara 컨퍼런스에서 알리바바 CEO 에디 우는 회사가 칩, 서버, 네트워크부터 스토리지, 데이터 센터에 이르기까지 오픈소스 생태계를 지원하는 데 전념하고 있다고 강조했습니다. 

자체 LLM: Tongyi Qianwen(Qwen)

알리바바의 AI 제품 중 최전선에는 "슈퍼 챗봇"과 유사한 대규모 언어 모델인 Tongyi Qianwen이 있습니다. 이 고급 모델은 텍스트를 이해하고 생성할 수 있어 기사 생성, 대화형 응답, 고객 지원을 포함한 광범위한 애플리케이션에 적합합니다. 

Qwen 시리즈는 놀라운 규모, 벤치마크 전반의 성능, 멀티모달 기능, 광범위한 사용자를 위한 접근성에 대한 헌신을 갖추고 있습니다. Alibaba는 이 기술을 공개적으로 제공하여 다른 기업이 고객 서비스 역량을 향상시키기 위해 무료로 활용할 수 있도록 했습니다.

“GPT4/4.o와 비교했을 때 전반적인 성능 측면에서 가장 경쟁력 있는 중국 LLM입니다.”라고 말했습니다. 레오 지앙, GroundAI 창립자이자 전 화웨이 최고 디지털 책임자. 

그는 Qwen을 특별하게 만드는 것은 두 가지 형식 때문이라고 덧붙였습니다. "API 기반 LLM 서비스는 출시 시간을 단축하고 비용 효율성을 제공합니다. 반면 오픈 소스 버전은 클라이언트에게 더 많은 제어권과 프라이버시를 제공합니다."

알리바바는 2023년에 대형 언어 개발 도구인 통이 첸웬(Tongyi Qianwen)을 출시했으며, 이는 종종 Qwen이라고 불리며 현재 2.5회 반복되었습니다. Qwen-72B 및 Qwen-1.8B를 포함한 Qwen 모델은 18억에서 720억 개의 매개변수에 이르는 다양한 매개변수 크기와 텍스트뿐만 아니라 오디오 및 비주얼 데이터도 처리할 수 있는 멀티모달 기능으로 유명합니다.

이러한 유연성은 3조 개가 넘는 토큰을 통한 학습을 통해 더욱 강화되었으며, 멀티태스크 정확도와 코드 생성 기능을 포함한 다양한 벤치마크에서 다른 많은 오픈소스 모델보다 우수한 성과를 보였습니다.

Qwen은 5가지 핵심 애플리케이션 사용 사례를 통해 종합적인 AI 어시스턴트로 자리매김했습니다. 

1) 실시간 회의록 작성 및 요약 

2) 긴 내용 처리 및 복잡한 이해가 필요한 요약 제공 

3) AI 파워포인트 프레젠테이션 생성 

4) 실시간 동시통역

5) 문제 해결을 도와줄 수 있는 AI 에이전트와의 영상 채팅.

출처: 알리바바

Qwen의 독특함은 인상적인 기술과 오픈 소스 원칙에 대한 강력한 의지에 있습니다. Alibaba는 Hugging Face 및 ModelScope와 같은 플랫폼에서 다양한 버전의 모델을 제공합니다. 일부 사람들은 회사가 AI에 자본을 쏟아부은 후 이제는 무료로 상금을 제공하는 데 왜 다른 사람들에게 모델을 공개하기로 했는지 의아해했습니다. 그러나 회사는 개발자들이 함께 실험하고 혁신할 수 있는 협력적 환경을 조성한다는 점을 강조하면서 모든 사람이 접근할 수 있도록 하는 데 단호했습니다. 수익화는 나중에 이루어질 수 있으며 Alibaba는 확실히 그렇게 할 방법을 찾을 것이지만, 지금까지는 모든 사람이 고급 AI 기술에 접근할 수 있도록 하는 데 있어 핵심적인 역할을 했습니다. 

알리바바는 자사의 전자상거래 마켓플레이스 앱인 타오바오와 같은 자사 애플리케이션 전반에 걸쳐 공개적으로 사용 가능한 데이터에 대해 오픈소스 AI 모델을 크게 훈련해 왔으며, 이는 월간 활성 사용자가 9억 3천만 명이 넘는다는 점을 감안할 때 엄청난 경쟁 우위를 점하고 있습니다. 독점 모델을 공개함으로써, 일반적으로 더 투명하고 비용 효율적인 오픈소스 AI 모델이 실제로는 남용될 가능성이 더 높은지에 대한 논쟁이 제기되었습니다. 

특히, 월간 활성 사용자가 1억 명 미만인 회사는 이러한 모델을 무료로 사용할 수 있어 산업 전반에 걸쳐 더 광범위한 채택을 촉진합니다. Alibaba는 오픈 소스 커뮤니티의 성장을 지원함으로써 사용자가 독점 기술에 대한 의존도를 줄이는 동시에 AI 기능을 효과적으로 활용할 수 있도록 하는 것을 목표로 했습니다.

ChinaAI의 Jeff Ding 널리 유통된 AItechtalk 기사를 번역했습니다. 지금 현재 Qwen이 세계에서 가장 인기 있는 오픈소스 대형 모델인 이유는 무엇입니까? "Hugging Face 데이터에 따르면, Qwen 시리즈/모델의 혈통은 50,000개가 넘습니다. 즉, 전 세계 개발자들이 Qwen 시리즈 기반을 기반으로 50,000개 이상의 파생 모델을 훈련했으며, 이는 약 70,000개의 Llama 시리즈에 이어 두 번째입니다. 이 데이터는 모델의 생태계 수준 영향을 판단하는 데 가장 설득력 있는 지표입니다."

인상적인 점은 Qwen 모델이 작년에 자동차, 게임, 과학 연구를 포함한 모든 분야에서 상당한 관심을 모았다는 것입니다. 이 모델은 출시 이후 4,000만 번 이상 다운로드되었습니다. 또한 가벼운 Qwen-1.8B 모델은 스마트폰과 같은 에지 디바이스에 배포하도록 설계되어 낮은 컴퓨팅 리소스가 필요한 애플리케이션에 매력적인 옵션입니다.

Qwen2.5의 가장 최근의 포괄적인 업그레이드는 더 큰 매개변수 규모, 더 강력한 사진 및 비디오 이해, 대규모 오디오 언어 모델, 지속적인 오픈 소스 모델을 의미합니다. 크게 개선되었을 뿐만 아니라 Qwen-Plus와 Qwen-Turbo 모두 복잡한 작업을 지원하기 위한 강력한 추론 기능 비용이 감소했습니다. 

앞으로를 내다보며, CEO Eddie Wu는 AI 개발이 빠르게 진행되었지만 AGI(인공 일반 지능)는 아직 초기 단계에 있다고 언급했습니다. 그는 협업의 중요성을 강조하고 Tongyi Qianwen의 API 추론 비용이 전년 대비 97% 감소했으며, 이는 인기가 증가하는 데 기여한 주요 요인이라고 강조했습니다. 사실, 이는 Qwen 모델이 중국에 기반을 둔 대부분의 다른 모델에 비해 더 높은 정확도와 사실성을 제공한다고 언급한 전 Huawei 임원 Leo에 의해 확인되었습니다. 출력의 정확성을 우선시하고 모델 환각을 최소화하는 것을 목표로 하는 엔터프라이즈 사용 사례에 맞게 사용자 정의할 수 있습니다. 게다가, 현재 Qwen의 가장 큰 장점은 개발자들에게 강력하면서도 비용 효율적인 대안을 제공한다는 것입니다.

Qwen을 가장 잘 활용하는 방법은?

Qwen은 경쟁력 있고 상업적으로 실행 가능한 대규모 언어 모델(LLM)로 돋보입니다. 오픈소스 커뮤니티에서 널리 채택되어 더 광범위한 검증과 지원이 보장되고, Alibaba Cloud의 세계적 수준의 인프라가 배포를 지원합니다. 이러한 요소로 인해 Qwen은 기업에 강력한 선택이 됩니다. Qwen 엔터프라이즈 배포를 안내하는 4가지 핵심 단계는 다음과 같습니다.

  1. 비즈니스 목표 및 사용 사례 정의: 고객 지원 자동화, 데이터 분석 강화, 콘텐츠 생성 개선 등 큰 영향을 미치는 사용 사례에 집중하세요.
  2. 데이터 준비 및 인프라 설정: Qwen 모델을 훈련하고 미세 조정하는 데 필요한 데이터를 평가하고 준비합니다. 여기에는 관련 데이터 세트의 정리, 구조화 및 가용성 보장이 포함됩니다. 전체 비용의 60–70%가 일반적으로 이 계층에 있기 때문입니다.
  3. 파일럿 프로젝트 및 반복 평가: 소규모 시범 프로젝트부터 시작하여, 미리 정의된 KPI와 결과를 비교하고, 개선을 위해 빠르게 반복하세요.
  4. 확장 및 통합: Qwen을 기존 워크플로에 완벽하게 통합하여 Qwen의 잠재력을 최대한 활용하는 동시에 성과를 모니터링하고 최적화하기 위한 거버넌스 구조를 구축하세요.

알리바바 클라우드

AI와 클라우드 사업은 왼손과 오른손과 같다고 Joe Tsai는 말했습니다.노르웨이 헤지펀드 매니저 니콜라이 탕겐과 대화하는 팟캐스트. 앞서 언급했듯이, 누구나 API를 통해 Alibaba의 LLM을 사용하거나 오픈소스 모델로 직접 갈 수 있습니다. 그러나 Qwen을 배포하려는 사람이라면 클라우드 컴퓨팅 파워가 필요하며 Alibaba Cloud가 이를 제공합니다. 

사실, 현재 중국의 기술 기업 80%와 국가 대형 모델 기업의 절반이 알리바바 클라우드에서 운영되고 있습니다. 이 규모는 단순히 비교할 수 없습니다. Joe는 APAC에서 가장 큰 공급업체인 클라우드 서비스를 통해 Alibaba가 Tongyi Qianwen에 대한 데이터와 시험을 수집하는 데 큰 이점이 있다고 반복했습니다. 긍정적인 순환 덕분에 AI 계층 전반의 두 사업이 지속적으로 서로에게 공급할 수 있습니다.

또한 회사는 최대 규모의 오픈소스 커뮤니티를 만들었습니다. 모델스코프 시장에서 많은 다른 오픈소스 모델을 호스팅하고 있으며, 개발자가 이러한 오픈소스 모델을 사용하는 경우 컴퓨팅 파워도 필요한데, 이는 알리바바의 클라우드 수익을 견인하는 주요 요인이 되었습니다.

스타트업에 클라우드 인프라를 제공함으로써, 이 기술 거대 기업은 그들이 최고의 소비자 대상 애플리케이션에 직접 접근할 수 있도록 허용함으로써 위험을 분산하고자 합니다. 클라우드 인프라를 제공하면 이 회사는 도메인과 사용 사례 전반에 걸쳐 다양한 데이터 풀에 접근할 수 있으며, 허가를 받으면 이를 활용하여 자체 모델을 미세 조정할 수 있습니다. 또한 이 분야의 인재 확보와 혁신에 대한 노출이 더 쉬워질 것입니다.

알리바바의 AI 애플리케이션

그럼 애플리케이션 측면을 살펴보겠습니다. 알리바바는 자체 운영에 AI를 광범위하게 통합하여 전자상거래 플랫폼에서 제품 추천, 지능형 고객 서비스, AI 지원 광고 타겟팅, 클라우드 서비스에서 AI 기반 솔루션에 활용하고 있습니다. 또한 AI를 더 잘 사용하여 물류 효율성과 기타 사용 사례를 개선하는 방법을 모색하고 있습니다. 오늘은 먼저 몇 가지 성숙한 사례를 살펴보겠습니다.

인공지능 온라인 서빙(AI OS) 회사의 검색 엔지니어링 팀이 개발한 플랫폼입니다. AI OS는 개인화된 검색, 추천 및 광고를 통합하여 Alibaba 플랫폼 전반에서 다양한 비즈니스 시나리오를 지원하며, 주로 Taobao와 같은 마켓플레이스 앱에 초점을 맞춥니다. 원래 Taobao의 검색 기능에 초점을 맞춘 이 기술은 딥 러닝 기술과 다양한 검색 및 추천 엔진을 포함하도록 확장되었습니다. 

Dingtalk은 Slack과 비슷한 기업용 채팅 소프트웨어입니다. Dingtalk의 모든 제품은 기업 및 개인용으로 내장된 AI 에이전트를 통해 AI를 지원하며, 2024년 초에 출시되었습니다. AI 에이전트는 데이터 분석을 검사할 수 있는 가상 로봇이며 메모리, 계획 및 실행 기능을 갖추고 있습니다. 

에이전트와 상호작용하는 형식은 ChatGPT와 유사한 챗봇을 통한 것입니다. 이 회사에서 제안하는 사용 사례에는 로봇을 영업 사원, IT, HR 관리, 재무 또는 조달 직원으로 사용하는 것이 포함되며, 회사가 관리 프로세스 내에서 반복적이고 지루한 작업 중 많은 것을 자동화하는 데 도움이 될 수 있습니다. 

한편, Alimama는 Alibaba의 전자상거래 마켓플레이스 앱인 Tmall/Taobao에서 브랜드의 광고 최적화를 돕는 플랫폼입니다.Alimama는 Alibaba의 비교적 알려지지 않은 사업부이지만 실제로는 2007년 초에 설립되었습니다.Taobao 또는 Tmall 플랫폼에서 판매하는 기업을 위한 디지털 마케팅 플랫폼입니다.AI 기반 멀티미디어 LMA는 올해 4월에 출시되었으며 현재 20억 개의 애플리케이션에 완전히 적용되었습니다.이 도구에는 고객 문의를 처리하고 효율성과 품질을 향상시키기 위해 기본 광고 디자인 작업을 수행할 수 있는 AI 영업 담당자가 포함됩니다.또한 Alimama는 예산 및 가격 책정을 위한 판매 분석, ROI를 높이기 위한 재고 관리 도구, 광고를 위한 비용 효율적인 텍스트-이미지 또는 비디오 생성 서비스를 제공합니다.이 회사는 플랫폼에서 100만 개 이상의 상인에게 서비스를 제공했으며 광고 제작 비용을 크게 줄였다고 주장합니다.

모든 가능성(기회)을 포착하기 위한 투자

알리바바는 여러 계층에 걸쳐 유망한 AI 기업을 적극적으로 인수하고 투자했으며, 특히 AI 칩 개발과 LLM 개발자를 전문으로 하는 기업을 인수하고 투자했습니다. 이러한 전략적 움직임은 빠르게 진화하는 AI 환경에서 알리바바의 기회를 확대하는 것을 목표로 합니다.

그리고 2024년에만 알리바바는 여러 AI 기업을 위한 주요 자금 조달 라운드를 주도했는데, 여기에는 Moonshot AI에 대한 $10억 투자가 포함되어 기업 가치가 약 $25억으로 급등했습니다. 또한 바이촨에 대한 $6억9천100만 자금 조달 라운드로 기업 가치가 약 $28억으로 상승했습니다. 또한 소위 "호랑이" 4개 중 3개인 MiniMax에 $6억 이상 투자하기로 약속했습니다.

현재 중국에서 가장 가치 있는 AI 스타트업 4개는 '4대 AI(소)호랑이'라는 별명이 붙었는데, 이들 모두 최근 3~5년 사이에 설립돼 이미 엄청난 성공을 거두었다. 문샷 가치는 $30억으로 평가, 미니맥스의 가치는 $20억으로 평가된다. 지푸 AI가 약 $8억 달러를 모금 그리고 백천의 가치는 1조 4,000억 원에 달한다고 합니다. 

알리바바의 칩: T-헤드

마지막으로 종종 간과되는 것은 Alibaba의 하드웨어 개발 노력입니다. 뉴스 플래시, 화웨이는 칩 하드웨어를 개발하는 유일한 중국 대기업은 아니다. 

알리바바의 칩 벤처, T-헤드, 미국의 지속적인 무역 제한 속에서 중국의 반도체 자립을 위한 광범위한 추진의 일환으로 RISC-V 아키텍처 개발에서 상당한 진전을 이루고 있습니다. T-Head는 인공 지능(AI), 빅데이터 분석, 온라인 거래를 포함한 다양한 애플리케이션을 지원할 수 있는 고성능 칩을 만드는 데 주력했습니다.

T-Head의 주목할 만한 제품 중 하나는 엔터프라이즈 솔리드 스테이트 드라이브(SSD)용으로 설계된 컨트롤러 칩인 Zhenyue 510입니다. Alibaba의 Apsara 클라우드 컴퓨팅 컨퍼런스에서 출시된 이 칩은 기존 솔루션에 비해 입력 및 출력 작업의 대기 시간을 30% 줄여 Alibaba Cloud 데이터 센터의 성능을 향상할 것을 약속합니다. 이 혁신은 Alibaba가 클라우드 서비스를 최적화하고 대규모 데이터 처리 작업을 처리하는 효율성을 개선할 수 있게 해주기 때문에 중요합니다.

중국이 계속해서 미국의 기술에 대한 제한을 헤쳐 나가는 가운데, T-Head가 RISC-V에 집중하는 것은 칩 설계 및 제조에서 잠재적으로 더 큰 독립성을 확보하기 위한 전략적 움직임을 나타냅니다. 

우리가 아는 것은 알리바바가 AI 전략에 대한 전체론적 접근 방식을 취했다는 것입니다. 포괄적인 기술 스택을 포함하고 생태계의 핵심 플레이어로 자리매김했으며, 이는 모두 Qwen 모델을 크게 발전시키는 핵심 기반입니다. 칩 수준까지 인프라 수준의 확장성을 기반으로 구축된 Qwen 모델은 알리바바의 광범위한 전자 상거래, 앱 및 투자 생태계에서 다양한 애플리케이션을 지원하도록 설계되었습니다. 이러한 전략적 초점은 모델의 기능을 향상시킬 뿐만 아니라 정확성을 우선시하고 모델 환각을 최소화하는 다양한 기업 중심 사용 사례에서 모델의 관련성과 효과를 보장합니다. 이 회사는 중국 AI 생태계에서 가장 중요한 주자 중 하나, 아니 가장 중요한 주자로서 성공적으로 자리매김했습니다.

##

출처: 인터뷰, 업계 보고서, 전문가 통찰력, 회사 발표, 투자자 관계 자료, Aspara 컨퍼런스의 대본, Alizila.

모래밭

  • 알리바바 클라우드 Qwen에 대한 공식 링크
  • Qwen2.5-LLM 지침, 마지막 업데이트 2024년 9월
  • 깃허브 Qwen2.5: 다양한 매개변수 스케일(0.5B~72B)을 지원하는 일련의 대규모 언어 모델로, 장문 텍스트 생성, 명령어 추적 및 구조화된 데이터 이해 기능이 개선되었으며 29개 언어를 지원합니다. 이 모델의 응용 프로그램은 코드 생성, 텍스트 생성 및 복잡한 데이터 처리에 적합합니다. Qwen2.5는 양자화, 추론 및 로컬 배포와 같은 기능을 제공하며, Hugging Face, ModelScope 및 vLLM 등과 같은 다양한 계산 프레임워크와 호환됩니다.
  • 깃허브 웬-VL: 이미지와 텍스트 입력을 모두 지원하고 다국어 대화 기능을 갖춘 대규모 시각 언어 모델로, 특히 중국어와 영어 이미지-텍스트 인식에 뛰어납니다. 이 모델은 고해상도 이미지 처리 및 세분화된 인식을 지원하여 대부분의 오픈 소스 모델보다 성능이 뛰어납니다.
  • 깃허브 웬-오디오: 다양한 오디오 입력(인간의 음성, 자연음, 음악 등)을 처리하고 텍스트 출력을 생성할 수 있습니다. 이 모델은 오디오 인식, 오디오 설명, 장면 분류, 감정 인식과 같은 작업에 적합합니다.
  • 깃허브 Qwen2.5-수학: 중국어와 영어 모두에서 수학 문제를 풀 수 있도록 지원하며, 사고의 사슬(CoT)과 도구 통합 추론(TIR)을 통합합니다.
  • 깃허브 Qwen2.5-코더: 128K 컨텍스트 윈도우를 지원하고 92개의 프로그래밍 언어를 포괄하는 최신 오픈소스 프로그래밍 모델입니다.

작가 소개

Grace는 AI x 에너지, AI x 지정학, AI x 빅테크에 대해 다음과 같이 글을 썼습니다. AI Proem의 Substack.

그녀는 또한 종종 다음과 같은 논평을 씁니다. 행운, 외교관, 그리고 AI, 기술, 기업 거버넌스에 대한 다른 국제 출판물. 그레이스는 저널리스트로서 전직에 싱가포르에서 CNBC의 아시아 기술 및 비즈니스에 대해 보도했으며, 그녀의 작품은 SCMP, S&P Global Market Intelligence, Yahoo Finance, USA Today에도 게재되었습니다. 

그레이스의 베스트 5 독서:

  1. AI 군비 경쟁은 끝나지 않았습니다. 칩은 게임의 절반일 뿐이며 인프라는 다른 것입니다.
  2. 데이터 센터가 아직 완전 재생 가능 에너지로 전환할 수 없는 이유
  3. 빅테크 수익: AI에 대한 모든 손이 갑판에 있습니다
  4. 바이두, 알리바바, 텐센트: AI 대결
  5. (새로운) 핵 세계 전체

다음에 나올 큰 심층 분석: Huawei 대 Nvidia 및 Google

이전 게시물
당신은 또한 좋아할 수 있습니다

댓글을 남겨주세요:

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다