聲明:本文來自于微信公眾號 機器之心(ID:almosthuman2014),作者:張倩,授權(quán)轉(zhuǎn)載發(fā)布。
在 Sora 代表的視頻生成路線上,國內(nèi)公司其實已有一定的技術(shù)儲備。
2023年年底,很多人都預測,未來一年將是視頻生成快速發(fā)展的一年。但出人意料的是,農(nóng)歷春節(jié)剛過,OpenAI 就扔出了一個重磅炸彈 —— 能生成1分鐘流暢、逼真視頻的 Sora。它的出現(xiàn)讓很多研究者擔心:國內(nèi)外 AI 技術(shù)的差距是不是又拉大了?
根據(jù) OpenAI 披露的技術(shù)報告,Sora 的核心技術(shù)點之一是將視覺數(shù)據(jù)轉(zhuǎn)化為 patch 的統(tǒng)一表示形式,并通過 Transformer 和擴散模型結(jié)合,展現(xiàn)了卓越的 scale 特性。無獨有偶,最近發(fā)布的Stable Diffusion3也采用了同樣的架構(gòu)。
其實,這兩項工作都是基于 Sora 核心研發(fā)成員 William Peebles 和紐約大學計算機科學助理教授謝賽寧合著的一篇論文《Scalable Diffusion Models with Transformers》。這篇論文提出了一種基于 Transformer 架構(gòu)的新型擴散模型 ——DiT,用對潛在 patch 進行操作的 Transformer 替換常用的 U-Net 主干網(wǎng)絡,把大語言模型的可擴展性、涌現(xiàn)性復制到了視覺任務上。
我們關(guān)注到,其實早在2022年9月,清華團隊就提交了一篇名為《All are Worth Words: A ViT Backbone for Diffusion Models》的論文(比 DiT 早兩個月)。這篇論文提出了用基于Transformer 的網(wǎng)絡架構(gòu) U-ViT替代基于CNN的U-Net。對比來看,兩項工作在架構(gòu)路線上完全一致:均是提出了將 Transformer 與擴散模型融合的思路;并且在具體的實驗路徑上也一致,比如采用了相同的 patch embedding、patch size;都得出了同樣的結(jié)論 ——patch size 為2*2是最理想的;在模型參數(shù)量上,兩者都在50M-500M 左右的參數(shù)量上做了實驗,最終都證實了 scale 特性。
不過 DiT 僅在 ImageNet 上做了實驗,U-ViT 在小數(shù)據(jù)集(CIFAR10、CelebA)、ImageNet、圖文數(shù)據(jù)集 MSCOCO 上均做了實驗。此外,相比傳統(tǒng)的 Transformer,U-ViT 提出了一項長連接的技術(shù),大大提升了訓練收斂速度。這篇論文后被 CVPR2023收錄。
基于 U-ViT 架構(gòu),2023年3月,該團隊再次發(fā)布了一項 UniDiffuser 的工作(參見《清華朱軍團隊開源首個基于 Transformer 的多模態(tài)擴散大模型,文圖互生、改寫全拿下》),在開源的大規(guī)模圖文數(shù)據(jù)集 LAION-5B 上訓練了10億參數(shù)量的多模態(tài)模型。同一時期,主攻通用多模態(tài)大模型賽道的生數(shù)科技正式成立(參見《專訪生數(shù)科技唐家渝:清華系團隊拿到上億融資,用Transformer來做多模態(tài)大模型》)。區(qū)別也在此刻發(fā)生,生數(shù)科技出于算力資源、技術(shù)成熟度等方面的考量,優(yōu)先嘗試將 U-ViT 應用于圖文任務,而 OpenAI 則是利用其算力優(yōu)勢跨越式地直接將 DiT 應用于視頻任務。
雖然主攻的任務不同,但 U-ViT 同樣展示了在視覺任務下的優(yōu)異能力。與當時同階段的 SD1.5比較,UniDiffuser 效果是基本持平的。更重要的是,UniDiffuser 擴展性更強,能基于一個底層模型完成圖文之間的任意生成。簡單來講,除了單向的文生圖,還能實現(xiàn)圖生文、圖文聯(lián)合生成、無條件圖文生成、圖文改寫等多種功能。
Unidiffuser開源版效果
Unidiffuser當前效果圖
有了這些對于架構(gòu)的早期探索,生數(shù)科技其實在視頻生成上頗具潛力,有望成為最接近 Sora 的中國團隊。而且,他們也早已在視頻生成方向進行了一些探索。
那么,未來的路怎么走?在視頻生成這個問題上,有哪些棘手的問題需要解決?Sora 又將帶來哪些商業(yè)機遇?在近期的一次訪談中,生數(shù)科技 CEO 唐家渝、首席科學家朱軍向機器之心透露了自己的看法。
Sora 的出現(xiàn)比預期早半年
機器之心:首先想請兩位回憶一下,第一次看到 Sora 的時候是什么感覺?有沒有印象比較深刻的 demo?
唐家渝:我印象最深的是它的流暢性和時間長度。之前 AI 生成的短視頻,大家都戲稱為 GIF—— 變動小,視頻短,只有幾秒。Sora 生成的視頻長得多,流暢度、自然度又明顯好了一個層次,我覺得這是最直觀的一個視覺上的沖擊。印象比較深刻的 demo 是紙飛機那個場景:一堆紙飛機在森林里面飛,各個紙飛機還會撞在一起,還會跟樹葉有一些互動。這本身是一個想象中的場景,但是生成效果逼真度很高,已經(jīng)具有一定的物理規(guī)律的表現(xiàn)能力了。
朱軍:如果回頭看大家之前對視頻生成長度的預判,Sora 的出現(xiàn)其實是超前了。之前能夠預測到今年視頻生成會快速發(fā)展,但當時在技術(shù)原理上,大家沒有看到特別大的技術(shù)突破,所以當時就覺得短視頻(幾秒鐘那種)會是一個主流形式。但 Sora 一下子做到了這么長,還是一個比較 surprise 的事情。原本預計今年年中或年底能做到這個水平,Sora 提前了大概有半年的時間。
用 Transformer 替代 U-Net 是一個自然想法,區(qū)別在于誰先做出效果
機器之心:最近關(guān)于 Sora 核心創(chuàng)新點的討論比較多,而且大家提及最多的是它的架構(gòu)。朱老師能否通俗地解釋一下 Sora 的 Diffusion Transformer 架構(gòu)是怎么一回事,用 Transformer 替換常用的 U-Net 主干網(wǎng)絡有何必要性?
朱軍:以視頻數(shù)據(jù)為例,擴散模型的原理就是在數(shù)據(jù)上做加噪和去噪。這里很關(guān)鍵的問題,就是能不能準確地預測噪聲,設計一個噪聲預測網(wǎng)絡。過去大家會用傳統(tǒng)的 U-Net 去做,但是 Transformer 被證明在可擴展性等方面有很大的優(yōu)勢,所以用 Transformer 去替代 U-Net 是一個很自然的想法,區(qū)別就在于誰先做出來效果。
Sora 用到的 DiT 是2022年底發(fā)布出來的。其實早在2022年9月份,我們發(fā)布了一個叫 U-ViT 的模型。這個模型的主要思想是用 Vision Transformer 去替代 U-Net,和 DiT 核心的想法是一樣的,就是用 Transformer 去增強擴散模型。這后來被證明非常有效,特別是在視覺數(shù)據(jù)的生成上。它一方面保持了擴散模型的優(yōu)勢,另一方面又利用了 Transformer 的可擴展性以及對不同模態(tài)的兼容性。相比于傳統(tǒng)的 Transformer,我們自己的設計(U-ViT)里面還包括了長連接,它可以讓計算效率變得更高,能看到很顯著的效果提升。
U-ViT 架構(gòu)
機器之心:我們可以從哪些指標上看到這些效果?
朱軍:其實在22年的時候,大家就已經(jīng)看到了,用 Vision Transformer 這種架構(gòu)可以提高生成質(zhì)量,實現(xiàn)更高的分辨率,也可以更有效地訓練更大規(guī)模的模型?,F(xiàn)在,我們可以看到更多的例子,包括 Sora、Stable Diffusion3。這些例子一次又一次地證明了,這個架構(gòu)的潛力是巨大的。
機器之心:在生數(shù)的產(chǎn)品里面,這份工作展現(xiàn)出了什么樣的效果?
朱軍:我們從一開始就堅持用擴散加 Transformer 的融合架構(gòu),也就是多模態(tài)原生的架構(gòu)。之前,很多團隊在做多模態(tài)的時候,會想說什么模態(tài)都對到語言上。但我們認為這種架構(gòu)不是最優(yōu),因為從原理和計算效率上來看,這種方法存在天然的不足,所以從一開始我們就在走擴散加 Transformer 這種路線。
2022年我們提出 U-ViT 架構(gòu)的時候?qū)说氖?Stable Diffusion,當時 Stable Diffusion 剛開源。所以在 U-ViT 架構(gòu)的基礎(chǔ)上,我們又在2023年3月份開源了一個叫 UniDiffuser 的大模型。這個模型也是基于擴散加 Transformer 的融合架構(gòu),可以在文、圖兩種模態(tài)之間進行任意的轉(zhuǎn)換。
從底層架構(gòu)的訓練到優(yōu)化到支撐上層的圖像、3D、視頻的生成,生數(shù)一直在堅持這個架構(gòu),一直在堅持這種融合的路線。
機器之心:您的意思是說,這種融合的路線相比那種單純地用 Diffusion 或者單純地用 Transformer 效果都要好,是嗎?
朱軍:是的。與單純地用 Diffusion 相比,融合架構(gòu)的主要優(yōu)勢就是 Transformer 的可擴展性。與單純地用 Transformer 相比,融合架構(gòu)在生成視覺數(shù)據(jù)的效率,包括模型的表示效率和計算效率等方面有很大的優(yōu)勢。
對于 Transformer 這個架構(gòu)來說,你把所有東西都放到里邊,好處就是簡單直接。但是,就目前對視覺數(shù)據(jù)的處理和生成效果來看,擴散還是占優(yōu)勢的。在我們看來,融合模型更符合原生多模態(tài)的定位。因為不同類型的數(shù)據(jù),它的特點是不一樣的,所以應該針對不同模態(tài)選擇最合適的一種處理方式。從實際的視覺生成效果來看,現(xiàn)在主流的方法也是用擴散模型去做生成,因為用 Transformer 這個架構(gòu)直接去做生成的話,到目前為止效果還是落后的。
機器之心:你們的 U-ViT 和 DiT 是同一時期提出的,但是你們選擇優(yōu)先用它去做圖文任務,而不是視頻生成,是基于什么考量?
朱軍:實際上我們也在做視頻生成,只是當時基于算力的考慮排了一個優(yōu)先級。這里面也有我們基于技術(shù)成熟度的一個預判。去年,我們是優(yōu)先從2D 的圖像開始,然后緊接著到5月份的時候,我們就做了3D 生成(從2D 到3D),后來我們又做了視頻和4D( 參見《一鍵實景轉(zhuǎn)動畫,清華系初創(chuàng)公司全球首發(fā)4D骨骼動畫框架》)。實際上就是在有了基礎(chǔ)的基座之后,我們可以做不同維度的擴增,3D、4D 其實分別是空間、時間上的一個擴展。
視頻實際上是圖像的流,它相當于在時間軸上做了一個擴增。所以我們的架構(gòu)實際上可以很自然地支持短視頻的生成,只是當時我們主要聚焦在幾秒鐘的短視頻的生成,沒有像 OpenAI 的 Sora 那樣一下子做到幾十秒、一分鐘。這里邊有很多原因,但其中一個很重要的原因是,我們手頭的資源相對來說確實受限很多。但是,從2D 圖像到視頻生成,很多東西是一脈相承的,很多經(jīng)驗(比如大規(guī)模訓練的經(jīng)驗)是可以復用的。
復現(xiàn) Sora,還有很多難題需要解決
機器之心:生成幾秒的視頻和1分鐘的視頻之間的技術(shù)差異是巨大的。根據(jù)您的經(jīng)驗,除了算力,做到這一點的關(guān)鍵是什么?
朱軍:這里面很重要的一塊是,針對比較長的視頻,怎么有效地表示它的時空信息,怎么有效地去壓縮視頻數(shù)據(jù),學到一個嵌入的表示,然后在上面再去做擴散、生成。
另外,要讓這種架構(gòu)能夠有效訓練,數(shù)據(jù)也很重要?;谥暗?DALL?E3等積累的優(yōu)勢,OpenAI 可以對視頻數(shù)據(jù)做到比較有效的語義理解。這在訓練數(shù)據(jù)里是非常關(guān)鍵的。因為在創(chuàng)作的時候,你輸入的語言通常是比較有限的、簡單的,所以如果想去生成豐富的視頻內(nèi)容,中間需要一個比較強的語義理解過程。
當然,可能還有很多我們不知道的因素。Sora 的成功不光是一個生成的問題,里面包括語義理解、數(shù)據(jù)標注、數(shù)據(jù)清洗、大規(guī)模訓練以及工程優(yōu)化等等。這些問題如果沒有做過是不知道的,由于 OpenAI 做過很多成功的案例,所以他們做成一個新項目的成功率會更高。
機器之心:同樣的架構(gòu)用來做圖像任務和視頻任務,會有什么不同嗎?對生數(shù)團隊而言,下一步計劃如何將該架構(gòu)從圖像任務拓展至視頻任務?
朱軍:主要的不同在于,視頻里面包含很多的時空信息。怎么抓住里面關(guān)鍵的運動、保持住長時間的一致性?這是單張圖片不會涉及到的。二者從原理上來說是相通的,我們從去年下半年開始也一直在做視頻相關(guān)的工作。
生數(shù)底層擁有自主訓練的架構(gòu),所以在上面我們能夠很自然地做各種生成。圖像生成是一個基礎(chǔ),圖像生成的質(zhì)量會影響到視頻生成的質(zhì)量。此外,3D 生成我們也持續(xù)在做。只是,Sora 比我們預期出現(xiàn)得要早,所以后續(xù)我們會加強視頻生成這一塊。
打造通用多模態(tài),需要通用架構(gòu)提供支撐
機器之心:Sora 的發(fā)布讓我們看到 OpenAIall in AGI的野心。他們的技術(shù)路線有兩個關(guān)鍵點:一是多模態(tài),二是通用化架構(gòu)。生數(shù)科技也是通用多模態(tài)路線的堅持者,在您看來,通用化架構(gòu)有何必要性?
朱軍:如果想讓模型實現(xiàn)更強的通用性,就需要更加通用的模型架構(gòu)來支撐。以 Sora 為例,在架構(gòu)上它肯定要融合文字和視覺數(shù)據(jù)。換句話說,如果你只做視覺或只做文本的話,你在多模態(tài)的任務上就不是最優(yōu),或者說有些模態(tài)不能處理。這是一個很直接的相互支撐的關(guān)系。
機器之心:做這種通用架構(gòu)的難點體現(xiàn)在哪幾個方面?
朱軍:難點就在于,不同模態(tài)的數(shù)據(jù),特點是不一樣的,你是不是直接簡單粗暴地用一種方式表示所有數(shù)據(jù)?這種方式目前來看可能并不是最優(yōu),所以需要針對不同數(shù)據(jù)的特點去分析考慮。另外,不同模態(tài)的數(shù)據(jù),它的數(shù)據(jù)量是不一樣的,或者說不均衡。在訓練過程中,這可能會對你的優(yōu)化過程產(chǎn)生實際的影響。還有不同模態(tài)之間的對齊理解也是問題。
機器之心:Sora 出現(xiàn)后,有種聲音說,國內(nèi)外的差距進一步拉大了,您怎么看待這個問題?
朱軍:差距是否拉大,這是一個可以辯論的問題。但我覺得,Sora 出來之后,國內(nèi)外并沒有像當初 ChatGPT 出來時那樣形成很明顯的代差。只是大家現(xiàn)在在工程技術(shù)上可能會落后一些。視頻生成這個問題,國內(nèi)也很重視,而且國內(nèi)做圖像、視頻相關(guān)任務的基礎(chǔ)還是比較好的。從當前的結(jié)果來看,實際情況可能比想象中要樂觀一些。
來自 OpenAI 的啟發(fā):
技術(shù)自信和資源都很重要
機器之心:如果從商業(yè)和產(chǎn)品的角度來看,您如何看待 Sora 的成功?
唐家渝:OpenAI 整體的模式是朝著 AGI 的目標,從底層模型能力提升的層面不斷地往前跑,模型本身就可以看作是他們最核心的產(chǎn)品。據(jù)說 Sora 這個小組也并沒有去考慮太多關(guān)于商業(yè)和產(chǎn)品的事情,所以可能他們在最開始的時候主要還是聚焦在如何實現(xiàn)真正好的視頻生成能力,然后去相信說只要我有這么強的能力,上面一定能搭出更多的商業(yè)化產(chǎn)品。對外賦能底層 API 的能力,然后在上層去創(chuàng)建一個繁榮的 AI 生態(tài),是 OpenAI 已經(jīng)驗證成功的一種商業(yè)模式了。
從這個維度來講,我覺得他們成功因素中很重要的一點已經(jīng)寫在了他們公司的價值觀里,也就是所謂的 “Scale”,他們整個公司都是相信 scale up 的,官網(wǎng)原話是如果對此產(chǎn)生了懷疑,就進一步 scale it up。所以我覺得這也是他們對于自己的技術(shù)路線的充分自信和堅持,然后衍生出了現(xiàn)在的成功。
機器之心:這對生數(shù)科技有什么啟發(fā)?
唐家渝:首先是觀念上的。我覺得我們在設計了 Diffusion 融合 Transformer 這樣一個好的架構(gòu),并且已經(jīng)看到它有巨大的潛力的情況下,應該要更有技術(shù)上的自信。這和 OpenAI 去相信 scale up 是類似的。
第二點是,在有自信的同時,如果你要去做 scale up,尤其是基于視頻數(shù)據(jù),就要去卷入更多的資源。因為像我們或者國內(nèi)的其他創(chuàng)業(yè)公司,其實相比 OpenAI 所擁有的資源還是差很多的。所以我們得敢想敢做地去卷入更多資源,和更多資源方去合作,這樣才能把技術(shù)自信轉(zhuǎn)變?yōu)榧夹g(shù)實現(xiàn),然后變成產(chǎn)品實現(xiàn)。
視頻生成:生數(shù)的過去與未來
機器之心:生數(shù)之前上線過一些文生視頻的能力,可以介紹一下之前的探索工作嗎?
唐家渝:我們的技術(shù)探索最終是為產(chǎn)品服務的。從產(chǎn)品層面來看,我們之前發(fā)布的能力和業(yè)界是差不多的,就是幾秒的短視頻生成和編輯。那個時候主要受限于算力等因素,沒有利用已有的架構(gòu)在視頻數(shù)據(jù)上去完成 scale up。從產(chǎn)品使用角度來看,我們其實看到這種幾秒的視頻已經(jīng)能夠幫用戶去做一些創(chuàng)意的工作,即使要制作長視頻,其實也可以通過設計腳本來拼接短視頻實現(xiàn)。
但 Sora 的出現(xiàn)讓我們看到,原生長視頻生成的能力不僅從內(nèi)容創(chuàng)作的角度,可以幫助我們?nèi)ミM行長鏡頭等更加藝術(shù)化的表達,也能外顯出一定的物理世界理解能力,使得生成的視頻更加自然。這也大大增強了我們加大視頻生成研發(fā)投入的信心和決心。
此外,我們之前的這些探索其實也是為了牽引內(nèi)部的一些工程基礎(chǔ)建設,比如為視頻數(shù)據(jù)的收集、清洗、標注以及模型的高效訓練積累經(jīng)驗。這些積累和最接近Sora的架構(gòu),使得我們在做長視頻生成時,對最終的效果更加抱有期待。
機器之心:據(jù)您所知,Sora 的開發(fā)、應用成本有多高?如果要做類似產(chǎn)品,生數(shù)要如何應對隨之而來的成本問題?
唐家渝:就開發(fā)成本來說,業(yè)界估計資源比較充分的狀態(tài)需要達到萬卡(英偉達 A 系列)的水平。由于我們之前在大規(guī)模訓練上做了很多加速的工作,所以我們的需求實際評估下來會少一些。
如果估算一下 Sora 的應用成本,目前生成60秒的高清視頻大概需要幾塊到幾十塊人民幣。所以 OpenAI 現(xiàn)在還沒有完全放出來這個東西,估計也是有算力、成本方面的顧慮。此外,模型生成視頻的成功率也是未知數(shù),這可能也是一個顧慮。
要降低應用成本,肯定要在這個過程中做一些模型壓縮的工作,包括一些分布式的操作 —— 比如在手機、筆記本端去做一些推理,也會是大家去做的一個衍生方向。另外,架構(gòu)層面的一些優(yōu)化肯定也會持續(xù)去做。所以應用成本的問題,我們覺得相對來說還是比較樂觀的。
什么叫原生多模態(tài)模型?
機器之心:根據(jù)您公司的描述,你們走的是原生多模態(tài)大模型賽道,能否介紹一下這個賽道和其他賽道的區(qū)別,以及該賽道國內(nèi)外玩家的具體情況。
唐家渝:其實定位原生多模態(tài)這個賽道是說,我們從第一天就堅持做一個完整的通用多模態(tài)大模型,而不是訓練多個模型,對這些模型的能力做排列組合式的使用。我們的做法是從底層的架構(gòu)出發(fā),天然地去考慮通過一個模型支撐不同數(shù)據(jù)的輸入輸出,它的特點是模型學到的知識會更加充分,而且在使用的時候,不用調(diào)用不同的模型去做組合應用,因此推理效率會更高。
舉個具體的例子,GPT-4支持文本-文本,DALL·E3支持文本-圖像,GPT-4V可同時輸入文本和圖像,但輸出僅文本,在應對開放的視覺任務時,是通過調(diào)用DALL·E3或者GPT-4V的接口來實現(xiàn),而原生的技術(shù)路線是基于一個底層架構(gòu)實現(xiàn)GPT-4V + DALL·E3的統(tǒng)一,能應對廣泛開放域的文本和視覺交互類的復雜場景。
這個領(lǐng)域的國外玩家主要是谷歌(Gemini)和 OpenAI(Sora)。國內(nèi)的話,我們是最早、也可能是唯一堅持做通用性的多模態(tài)大模型的公司。
機器之心:從產(chǎn)品的角度,您如何定義原生?
唐家渝:從產(chǎn)品角度來看,其實我們更多的是考慮有了原生多模態(tài)模型的加持之后,產(chǎn)品所帶來的用戶體驗有沒有指數(shù)級的提升,像所想即所得、所說即所得就是一種指數(shù)級的提升。我們所做的事情,無論是圖像、3D 還是視頻的生成,其實都是朝著這個目標在努力的。就是讓一個即使沒有任何專業(yè)能力的人,都可以去創(chuàng)作出他想要的畫面,或者說在數(shù)字世界或物理世界具象化出想象中的某個東西。我個人心中的標準之一就是,自己的親戚朋友最終會不會喜歡去用這么一個產(chǎn)品。
Sora 所帶來的商業(yè)機遇
機器之心:在關(guān)于 Sora 是否理解物理世界的爭論中,Keras 之父 Fran?ois Chollet 曾提到,這個問題之所以重要,是因為它決定了生成圖像、視頻的應用范圍 —— 是僅限于媒體生產(chǎn),還是可以用作現(xiàn)實世界的可靠模擬。如果分兩種情況去討論,Sora 的發(fā)布將分別帶來哪些新的商業(yè)機遇?
唐家渝:我覺得前者主要對應的是數(shù)字世界里的內(nèi)容生產(chǎn)。在數(shù)字世界中,我們平時接觸到的內(nèi)容涉及電視電影、廣告、教育、社交娛樂等多個行業(yè)。因為視頻形態(tài)在我們?nèi)粘I钪杏玫锰嗔?,所以即使只看跟視頻相關(guān)的場景,它的應用前景就已經(jīng)非常不可限量了。
如果它能理解物理世界,那應用范圍就不止局限在數(shù)字世界了,而是可以和物理世界產(chǎn)生交互。比如,它可以和機器人結(jié)合實現(xiàn)具身智能,也可以用于自動駕駛,用于數(shù)字孿生。之前一個一個構(gòu)建小模型的方法可能有很多 corner case 照顧不到,如果模型真能了解到物理世界的規(guī)則,我們就能使用一個通用模型來處理所有的關(guān)于物理世界的認知和仿真任務,這可能會極大地推動社會運行方式的進化。
本文鏈接:國內(nèi)公司有望做出Sora嗎?這支清華系大模型團隊給出了希望http://www.lensthegame.com/show-3-10843-0.html
聲明:本網(wǎng)站為非營利性網(wǎng)站,本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
上一篇: MWC2024 | 中國聯(lián)通發(fā)布“聯(lián)網(wǎng)通信新升級,算網(wǎng)數(shù)智新未來”創(chuàng)新成果
下一篇: “固收+”周報(第93期)丨 個人養(yǎng)老金基金凈值快速“回血”;公募基金總規(guī)模達27.36萬億