⑴ 會議室分配演算法(最大離散)
項目需要開漏鎮發一個線上會議室的預約功能,對接Zoom提供500個線上會議室,以滿足用戶線上會議需求。同時要求系統分配的會議室越離散越好,防止用戶會議室使用超出預定時間時,影響下一場會議的進行。其中預約返歲粗的會議的開始時間和結束時間只能在同一天,無法跨天。
meeting_online_roon:(存儲會議室信息)
meeting_online_room_booking_detail:(存儲會議室預定信息)
會議時間沖突場景:
因此sql就是:
其中:
是計算某個會議室與當前會議時間最大時間間隔。
例如會議室A預定了2場會議室: 8:00-9:00 14:00-15:00,現在要預定的會議時間為:10:00 - 12:00 。 最大時間間隔為:1小雀脊時,而不是2小時
所以總體的sql就是:(以下採用Mybatis寫的)
這種方法是通過sql直接分配好會議室,不需要在內容中再進行處理,速度較快,比較簡單。
⑵ 展現完美的自己 英偉達AI演算法提升視頻會議體驗
受新冠疫情的影響,加速了各行業企業移動化辦公的需求,這期間,有大量的用戶和企業選擇了線上視頻會議。那麼,我們如何在視頻會議中展現更完美的自己呢?
近日,2021年國際計算機視覺與模式識別會議(CVPR 2021)正式召開。基於GAN研究的NVIDIA Maxine雲AI視頻流SDK現已在CVPR 2021上展出。讓我們看一看GAN研究是如何重塑視頻會議的呢?
起床、啟動筆記本電腦、打開網路攝像頭——得益於NVIDIA研究人員開發的AI技術,每次都能在視頻通話中展現完美的自己。
Vid2Vid Cameo是用於視頻會議的NVIDIA Maxine SDK背後的深度學習模型之一,它藉助生成式對抗網路(GAN),僅用一張人物2D圖像即可合成逼真的人臉說話視頻。
要使用該模型,參與者需要在加入視頻通話之前提交一張參照圖像(真實照片或卡通頭像)。在會議期間,AI模型將捕捉每個人的實時動作,並將其應用於之前上傳的靜態圖像。
也就是說,上傳一張穿著正裝的照片之後,與會人員即使頭發凌亂、穿著睡衣,也能在通話中以穿著得體工作服裝的形象出現,因為AI可以將用戶的面部動作映射到參照照片上。如果主體向左轉,則技術可以調整視角,以便參與者看上去是直接面對攝像頭的。
除了可以幫助與會者展現出色狀態外,這項AI技術還可將視頻會議所需的帶寬降低10倍,從而避免抖動和延遲。它很快將在NVIDIA Video Codec SDK中作為AI Face Codec推出。
NVIDIA研究人員兼項目的聯合創作者Ming-Yu Liu表示:「許多人的互聯網帶寬有限,但仍然希望與朋友和家人進行流暢的視頻通話。這項基礎技術除了可以為他們提供幫助外,還可用於協助動畫師、照片編輯師和 游戲 開發者的工作。」
Vid2Vid Cameo本周發表於著名的國際計算機視覺與模式識別會議,這是NVIDIA在本次虛擬會議上發表的28篇論文之一。此外,它還在AI Playground上推出,在此所有人均可親身體驗我們的研究演示。
AI大出風頭
在一部經典盜賊電影(同時也是Netflix的熱門節目)的致謝中,NVIDIA研究人員將他們的人臉說話GAN模型迅速用於虛擬會議。演示重點介紹Vid2Vid Cameo的主要功能,包括面部重定向、動畫頭像和數據壓縮。
這些功能即將登陸NVIDIA Maxine SDK,為開發者提供經過優化的預訓練模型,以便在視頻會議和直播中實現視頻、音頻和增強現實效果。
開發者已經能採用Maxine AI效果,包括智能除噪、視頻升采樣和人體姿態估計。SDK支持免費下載,還可與NVIDIA Jarvis平台搭配用於對話式AI應用,包括轉錄和翻譯。
來自AI的問候
Vid2Vid Cameo只需兩個元素,即可為視頻會議打造逼真的AI人臉說話動態,這兩個元素分別是一張人物外貌照片和一段視頻流,它們決定了如何對圖像進行動畫處理。
模型基於NVIDIA DGX系統開發,使用包含18萬個高質量人臉說話視頻的數據集進行訓練。網路已掌握識別20個關鍵點,這些關鍵點可用於在沒有人工標注的情況下對面部動作進行建模。這些點對特徵(包括眼睛、嘴和鼻子)的位置進行編碼。
然後,它會從通話主導者的參照圖像中提取這些關鍵點,這些關鍵點可以提前發送給其他的視頻會議參與者,也可以重新用於之前的會議。這樣一來,視頻會議平台只需發送演講者面部關鍵點的移動情況數據,無需將某參與者的大量直播視頻流推送給其他人。
對於接收者一端,GAN模型會使用此信息,模擬參照圖像的外觀以合成一個視頻。
通過僅來回壓縮及發送頭部位置和關鍵點,而不是完整的視頻流,此技術將視頻會議所需的帶寬降低10倍,從而提供更流暢的用戶體驗。該模型可以進行調整,傳輸不同數量的關鍵點,以實現在不影響視覺質量的條件下,適應不同的帶寬環境。
此外,還可以自由調整所生成的人臉說話視頻的視角,可以從側邊輪廓或筆直角度,也可以從較低或較高的攝像頭角度來顯示用戶。處理靜態圖像的照片編輯者也可以使用此功能。
NVIDIA研究人員發現,無論是參照圖像和視頻來自同一個人,還是AI負責將某個人的動作轉移到另一個人的參照圖像,Vid2Vid Cameo均能生成更逼真、更清晰的結果,優於先進的模型。
後一項功能可將演講者的面部動作,應用於視頻會議中的數字頭像動畫,甚至可以應用於製作視頻 游戲 或卡通角色的逼真形象和動作。
Vid2Vid Cameo論文由NVIDIA研究人員Ting-Chun Wang、Arun Mallya和Ming-Yu Liu共同撰寫。NVIDIA研究團隊在全球擁有超過200名科學家,專注於AI、計算機視覺、自動駕駛 汽車 、機器人和圖形等領域。
我們要感謝演員Edan Moses ,他在Netflix上的《紙鈔屋》中擔任教授的英語配音,感謝他在以上我們最新AI研究的介紹視頻中做出的貢獻。
寫在最後,視頻會議現已經成為人們日常生活的一部分,能夠幫助數百萬人工作、學習、 娛樂 ,甚至就醫。NVIDIA Maxine集成了先進的視頻、音頻和對話式AI功能,給那些幫助我們保持聯絡的視頻會議平台帶來效率突破。(陶然)