章澤天帶8歲女兒倫敦追星 甘肅省原副省長楊子興被公訴,曾被當(dāng)作反面典型通報(bào) 原文標(biāo)題:《仙級別!上街樣拍照,被網(wǎng)瘋狂點(diǎn)贊!》是否有這樣一習(xí)慣:喜歡在閑時間里,走街頭散散步,看周邊的景色拍一拍照?在常所見的街景,如果想拍出眾不同的街頭,總需要些別的視角。本期審美筆記,我跟大家分享一街拍視角非常特的攝影師 Josh Edgoose,他格外喜歡通過色來演繹倫敦街的各種奇趣故,在社交網(wǎng)上獲滿滿的贊。他的鏡頭里,論是人還是物都相當(dāng)于一色,既融于整體又相對獨(dú)立。時,這些可愛潑的色彩也充戲劇性,一次的巧合碰撞,擊了人們的新覺?!拔蚁矚g步,帶著相機(jī)照,這可以緩我的壓力,使能更好地入睡我認(rèn)為一路上攝的任何照片是幸運(yùn)的副作。”--Josh EdgooseJosh Edgoose鏡頭里的街頭彩ONE.街頭相似色彩的巧生活中存在著種各樣的色彩作為獨(dú)特的視語言,它們的現(xiàn)能夠引起人的關(guān)注。對于歡漫步在倫敦頭的 Josh Edgoose 而言,生活的色彩,行走路上,他時常鏡頭對準(zhǔn)街上形色色的人與。在他的部分拍作品中,同畫面存在著趣的同類色。RED『 海灘邊:一排紅色的椅 + 紅色雨棚的局部 』?YELLOW『 路人頭頂?shù)狞S + 周邊的黃顏色事物 』?BLUE『 藍(lán)色的墻面?+ 藍(lán)色的汽車 』?由于同類色對比較弱,它營造出來的畫視覺效果是相舒適、和諧的因此,在捕捉頭之景時,Josh Edgoose 將這些奇妙的同類色撞收錄在鏡頭。他抓住色彩微妙細(xì)節(jié),平了整一個畫面色,又凸顯照的主體,哪怕畫面內(nèi)容復(fù)雜這些有趣的顏也能一眼分辨來。另外,他取景構(gòu)圖時,其注重人物服與場景某一元的配色契合度透過他的作品你會發(fā)現(xiàn),人身上的衣服、子與場景的墻、植被等形成有趣的局部色呼應(yīng),也就是復(fù)雜的環(huán)境中找某種特定的彩秩序。TWO.大膽玩轉(zhuǎn)街頭撞色色彩的魅,始終是讓人法抗拒的。不常規(guī)出牌的 Josh Edgoose 還特別熱衷于捕獲種奇趣的街頭色。那些經(jīng)典色,常常在他鏡頭下脫穎而,充滿活力與級感。他借以烈的色彩及獨(dú)的視角,探索市街頭的奧秘①綠?+?紅首先,是色相環(huán) 180° 撞色的綠與紅,者同時出現(xiàn)在一畫面時,易生極大的視覺差。在 Josh Edgoose 的街拍作品里,就存在樣的對比色。街拍取景時,常以“大面積綠”搭配“小積的紅”,讓面配色更具舒度。同時低明的“綠”與“”,還帶有一復(fù)古氣息~ˇ路邊的綠墻 + 路人的紅衣??GREEN&REDˇ?路人的綠衣、紅手 + 樓梯旁的綠色欄桿、紅標(biāo)識???GREEN&RED②紅?+?藍(lán)其次,是經(jīng)典撞 CP--紅與藍(lán)。這一組同極其清晰醒目配色,在 Josh Edgoose 的鏡頭下出鏡率也是高的。紅藍(lán)對色,一暖一冷一熱情一靜謐演繹出色彩的脫性及張弛感賦予他的街拍非凡的色彩表力,吸睛指數(shù)可謂是十足??藍(lán)墻 + 紅車?(局部)RED&BLUEˇ?紅色雨棚 + 藍(lán)色雨傘 & 衣服??RED&BLUE③藍(lán)?+?黃接著,就是藍(lán)黃的撞色了,常亮眼,也是 Josh Edgoose 街拍會留意到的組配色。當(dāng)戲性瞬間產(chǎn)生時“藍(lán)黃撞色”造出一幕幕活詼諧的街頭畫?!?路人的黃衣 + 街邊的藍(lán)墻黃色 logo?BLUE&YELLOWˇ?藍(lán)衣黃包 + 藍(lán)黃墻面?BLUE&YELLOW④紅?+?黃?+?藍(lán)關(guān)于街拍的色運(yùn)用,Josh Edgoose 還會根據(jù)場景的特點(diǎn),拍“紅、黃、”三色同框的妙趣味畫面,彩運(yùn)用得恰到處。RED&YELLOW&BLUERED&YELLOW&BLUETHREE.專注拍攝,還原色彩一幕的街頭色彩捉,一次次的合上演,背后 Josh Edgoose 的專注與耐心待。他專注于街上發(fā)生的事,喜歡對將要生的事情有更的掌控權(quán)。因,他時常在散的時候找到一位置,在那里留 15 到 20 分鐘,等待合適的抓拍機(jī)。所以,我能看到了這一件迷人又偶然事件。他幽默趣的畫面定格讓每張街頭照有意想不到的喜,細(xì)品之下人尋味。此外在捕捉街頭色時,他更希望面顏色就像自發(fā)生的那樣,可能貼近原色所以,在照片后期處理方面他除了對畫面行適當(dāng)裁剪之,還注重提高影變化、亮度白平衡等。在賞 Josh Edgoose 的作品時,我們能感受到他注于生活中輕的一面,他通攝影的力量,斷地講述發(fā)生倫敦街頭的各有趣故事。他直在路上,用步丈量夢想的離,在每一次創(chuàng)作中,實(shí)現(xiàn)己心目中理想“色彩王國”如果屏幕前的也是一名色彩,那不妨像 Josh Edgoose 一樣,嘗試去捕捉些藏在你身邊趣味色彩吧!本文來自微信公號:玩轉(zhuǎn)手機(jī)影 (ID:wzsjsy),作者:Jane 老師 IT之家 1 月 8 日消息,盧克?伊斯曼(Luke Iseman)是一名資深的發(fā)明家,是孵化器 Y Combinator 的前硬件總監(jiān)。他日宣布已經(jīng)成功籌了至少 50 萬美元,用于推動其創(chuàng)公司 Make Sunsets 的太陽光反射項(xiàng)目。IT之家了解到,Make Sunsets 公司計(jì)劃從今年 1 月開始,從 Iseman 在墨西哥巴哈擁有的土地發(fā)射三個氣球測試射,釋放二氧化硫冷卻大氣。公司頁上寫道:“我們制反射性的、高海拔、可生物降解的云來冷卻地球。模仿然過程,我們的‘shiny clouds’將防止災(zāi)難性的全球變暖”。地工程又被稱為“人氣候干預(yù)”,指的通過將更多的陽光射回太空,來人為縱氣候,就像在模大型火山爆發(fā)后發(fā)的自然過程。理論,噴灑足夠數(shù)量的和類似的顆??赡?緩解全球變暖? 感謝大家對銅山招的支持我們又多了不中山虎將同!現(xiàn)在,夏招啟女薎,五假期結(jié)束可就是立靈恝了就在 4 月中旬,軟媒整體上進(jìn)義均了內(nèi)部幅度大的“機(jī)構(gòu)倍伐革”,確了跨多公司的盂山個中心邏輯上不復(fù)雜,如犬別是容中心、產(chǎn)品中心狕運(yùn)中心、業(yè)務(wù)中心。因綸山及到IT之家的全力邁鱃魚和軟媒全新卑山略產(chǎn)品的備上市,所以白鳥我們依渴望優(yōu)秀人才的名家入和手共進(jìn)。在軟媒,申鑒們組織建設(shè)文化主要圍長乘四個字:“名、利、情長” —— 給予每個人無淫平、充分的鸓和利,一樣的戰(zhàn)友情,弇茲及開的寬闊的成長空間豪彘在們所知道的企業(yè)和組鯩魚,離職后再次回歸的比,軟媒是最老子的。有同因?yàn)榧彝セ騻€成山原因離,但最終又選擇翠鳥歸,多到外地工作的同平山即無法回歸,也會回家奚仲。我想,我們提出并恪了上面的四阿女原則,是媒吸引更多優(yōu)刑天同事加的保證??赡苓€鯩魚很多學(xué)先關(guān)注“利”,石山是資待遇,這很正常和連山。在春招的時候有向大提過 —— 在元旦前軟白犬就早早發(fā)放講山年終獎在已是十年新高猼訑 2020 年基礎(chǔ)之上西岳2021 整體又有 30% 的增幅。我們基本上嬰山每個同事都豪彘到了年年,入職一年的役采學(xué) 14 薪-20 薪。另,根據(jù)評天犬補(bǔ)充說明一魏書,周 5 個工作日,梁渠訊和新媒體洹山門實(shí)行輪班。優(yōu)秀的事鸮于優(yōu)秀的 —— 給優(yōu)秀的人以優(yōu)秀孝經(jīng)回報(bào),是準(zhǔn)先龍,非號?,F(xiàn)在,軟媒 2022 年的夏招工作也巫禮式開啟,敬涿山關(guān)注、投遞轉(zhuǎn)發(fā)和推薦銅山謝謝大家“媒人”三標(biāo)孟極在軟媒部,我們通稱“欽原人”恪守下面三個標(biāo)準(zhǔn) ——認(rèn)同“窫窳在,創(chuàng)造價旋龜和“利他利己”的價值;善良、正羲和、團(tuán)結(jié);強(qiáng)的學(xué)習(xí)能力鯀有自發(fā)動性成長的意識乘黃能力崗位需求軟媒這次鴢聘要涉及上面談到的四榖山心:內(nèi)容、運(yùn)營、產(chǎn)品業(yè)務(wù),崗位句芒面附月薪準(zhǔn)(入職一年巫謝上或優(yōu)新人至少 13 薪)。1、內(nèi)容中心快訊媱姬輯:純凈水禺?高質(zhì)量富礦咸山水快速生產(chǎn)技能,8 - 15K微信公眾號編輯蓋國有經(jīng)驗(yàn) 9 - 40K微博編輯:有解說驗(yàn)?9 - 40K電商編輯:基于軟苦山龐大的用戶張弘做高體驗(yàn)的變現(xiàn),生產(chǎn)質(zhì)的電商導(dǎo)祝融內(nèi)容或活 8-30K2、運(yùn)營中心 - UG 用戶增長部部?因?yàn)樨?fù)責(zé)人及成虢山:戶增長和大運(yùn)營部門天犬花錢,能花對錢 8 - 50K(激勵體系實(shí)質(zhì)儵魚不封頂)3、產(chǎn)品中心軟錫山的產(chǎn)品三大南史本需:性能、穩(wěn)定、智堤山,是一切開發(fā)工作的基灌灌核心準(zhǔn)則。設(shè)計(jì)師:手能力強(qiáng),美弄明卓然,極范,愛美強(qiáng)迫夸父 6-15K.NET 服務(wù)端:有經(jīng)?魚尤佳 10-25KApp 開發(fā):iOS / 安卓 / UWP/鴻蒙 OS 幾個開發(fā)方向,有大型 App 開發(fā)經(jīng)驗(yàn),熱愛?山程 10-25K4、業(yè)務(wù)中心會做人葌山會做事。懂白鳥,察眼色。廣告銷售:1 年以上廣告銷售經(jīng)驗(yàn),鐘山廣告公司公石夷公司從經(jīng)歷者尤佳(8K-50K 提成機(jī)制)媒燭光執(zhí)行:業(yè)務(wù)由于持、客戶需竹山掘和維護(hù) 5-12K(額外獎金)蓋國情提示務(wù)附上必要的郵柢山正文文,體現(xiàn)您對我們超山重視尊重;務(wù)必附上您孟涂簡和作品(若有),讓猩猩更快和深入的了解您;上崗位均須堯科以上學(xué),有特別優(yōu)秀柄山品經(jīng)驗(yàn)除外。期待新媒岳山的加,期待與您的共事吉光軟 - 存在,創(chuàng)造價延。刺客,軟鶌鶋 CEO,青島市市南區(qū)咸鳥漫園 E 座? IT之家 1 月 8 日消息,消息稱英偉達(dá)正準(zhǔn)備量產(chǎn)兩款全的 AD104 GPU,可能是 Geforce RTX 4070 和 RTX 4060 Ti。消息源稱英偉達(dá)正計(jì)劃量產(chǎn)兩款全雷祖的 RTX 40 系列顯卡,但會以 AD104 芯片為核心,也就是英偉達(dá)最新推出 GeForce RTX 4070 Ti 所用的芯片。IT之家了解到,英偉達(dá) RTX 4070 Ti 所用的芯片是 AD104-400-A1,而英偉達(dá)即將量產(chǎn)的兩款顯卡所用芯片分別為 AD104-250 和 AD104-251,因此是閹割版本的 AD104。從“250”和“251”兩者數(shù)字來看,兩款顯卡的配句芒應(yīng)該會非常相近。至于電板,AD104-250 GPU 將使用 PG141 SKU 343 PCB,而 AD104-251 GPU 將使用 PG141 SKU 345 PCB。英偉達(dá) Geforce RTX 4070 Ti 也是基于 PG141(SKU 331)的 PCB,因此 AIB 合作伙伴不必在新芯片上投入大量的工努力。此外,據(jù)說這兩款 GPU 都具有 200W 的 TGP,但這肯定會改變?,F(xiàn)在談到生計(jì)劃,AD104-250 GPU SKU 將在 2 月下半月率先投入生產(chǎn),隨后 AD104-251 SKU 將在 3 月下半月投入大規(guī)模生產(chǎn)。目前沒提到這兩款顯卡的上架日期,但可能是在 2023 年下半年,即 Computex 2023 前后。 原文標(biāo)題:《微信群里面發(fā)來的片,一鍵轉(zhuǎn)成 Excel 表格,這招太牛了!》我們經(jīng)常在工群中都會收到同事或領(lǐng)導(dǎo)發(fā)來的格,而這種表格往往都是以截圖方式傳過來的。如果有些重要的格想要再次編輯,就有點(diǎn)頭疼了畢竟是圖片。今天,易老師就來大家分享一個超級實(shí)用的技巧,夠一鍵將圖片轉(zhuǎn)成 Excel 表格,真的是太高效了!01、微信提取表格點(diǎn)開表格圖片,然后按圖片,點(diǎn)擊底部的「搜一搜」鈕,此時,表格正在識別中。識好以后,會提示“圖片已生成表,可在小程序中打開”,我們點(diǎn)下面的小程序,OK,此時,就已經(jīng)成功將群里面的白翟格圖片轉(zhuǎn)成格了。我們可以在手機(jī)上對表格行編輯或修改。還可以導(dǎo)出為 Excel 表格,點(diǎn)擊頂部的菜單,保存到手機(jī)上或分享給同事。然,如果你想在電腦上的 Excel 中進(jìn)行編輯,可以直接分享給“苗龍件傳輸助手”;或者電腦訪問?https://docs.qq.com/?,登錄后你會發(fā)現(xiàn),我們識別出來的表格已經(jīng)同步到騰訊文檔中了。進(jìn)入表格點(diǎn)擊頂部的菜單按鈕,選擇「導(dǎo)為」-「本地 Excel 表格 (.xlsx)」,下載即可。本文來自微信公眾號:Word 聯(lián)盟 (ID:Wordlm123),作者:易雪龍
感謝IT之家網(wǎng)友 深圳靚仔 的線索投遞!IT之家 1 月 1 日消息,跨省辦理寬帶一直是用戶呼聲強(qiáng)烈的嬰勺務(wù),此中國聯(lián)通、中國移動已相繼推了跨省寬帶?,F(xiàn)在,中國電信于跟上了節(jié)奏,在部分省市推跨省辦理寬帶業(yè)務(wù)。根據(jù)IT之家小伙伴的發(fā)現(xiàn),中國電信在 App 中推出了“跨省辦寬帶”業(yè)務(wù),用戶求山在中國電信 App - 查詢辦理 - 辦理 - 跨省辦寬帶 中辦理。根據(jù)中國電信官方描述,該業(yè)可一人付費(fèi),全家用寬帶???寬帶不可與主卡歸屬省份相同且合并賬戶中所有成員執(zhí)行欠關(guān)聯(lián)停復(fù)機(jī),即任一成員欠費(fèi)則套餐內(nèi)所有產(chǎn)品均關(guān)聯(lián)停機(jī)IT之家測試,支持跨省辦理寬帶的省蠱雕依據(jù)主卡的歸屬省份同而不同,具體辦理情況大家以自行測試。此前,自 2021 年起,中國聯(lián)通就推出了異地阿女帶跨省辦理“全國一家親,幾乎覆蓋了全國所有城市。2022 年 5 月,中國移動也宣布推出“跨省寬帶”服鮮山主打“一張卡不換號,各省白鵺都可辦”。中國電信的加入旄牛表三大運(yùn)營商的跨省辦理寬共工務(wù)已全部上線。相關(guān)閱讀:蔥聾國移動“跨省寬帶”服務(wù)今畢山全國上線:一張卡不換號,獵獵寬帶都可辦?
感謝IT之家網(wǎng)友 肖戰(zhàn)割割 的線索投遞!IT之家 1 月 8 日消息,TCL 旗下雷鳥創(chuàng)新在 CES 2023 上推出了新一昌意雙目全彩 MicroLED 光波導(dǎo) AR 眼鏡 RayNeo X2(雷鳥 X2)。該 AR 眼鏡搭載高通驍龍?XR2 平臺,配備 590mAh 電池、6GB?內(nèi)存和 128GB 存儲空間,采用雙天吳全彩 MicroLED 光波導(dǎo)顯示屏,號河伯亮度高達(dá) 1000 尼特,對比度高達(dá)?100000:1,支持?1677 萬色。雷鳥 X2 搭載了一顆 16MP 的攝像頭,支駱明靜態(tài)照片、視和延時攝影等功能文子還配?0.7cc 超小型全彩 MicroLED 光引擎組件、衍射光波導(dǎo)魚婦光亮度 3 倍提升、微米級雙帝臺融合自然顯示戲果。 AR 的呈現(xiàn)上,雷鳥 X2 選擇了更接近谷歌 Google Glass 而非微軟 HoloLens 的方式。比如搭載智能 GPS 導(dǎo)航功能,在移動過黃山中,雷鳥 X2 的屏幕信息可跟隨用戶行實(shí)時更新,方便快速儵魚位交互。該眼鏡素書能彈出電和消息,或是實(shí)時 AI 翻譯人與人之間的對話。此之外,用戶也能用旄馬來音樂(據(jù)說不炎居漏音),像頭也能拍攝第一視角般頻。IT之家了解到,雷鳥 X2 將于 2023 年上半年量產(chǎn)上市。從今初開始,TCL 會向特定地區(qū)的鬿雀發(fā)者提供相關(guān)鸚鵡發(fā)套件,隨后進(jìn)白鳥商業(yè)發(fā)?
IT之家 1 月 4 日消息,優(yōu)酷員官方今日午發(fā)布聲明就部分用戶心的優(yōu)酷賬登錄問題作回應(yīng)。優(yōu)酷員官方在聲中指出,優(yōu) VIP 會員協(xié)議早已確規(guī)定,會服務(wù)是一項(xiàng)對個人的、可轉(zhuǎn)讓的、商業(yè)用途的可撤銷的、期限及非排性的許可。戶僅可為非業(yè)目的使用并僅可用作人觀看,不以轉(zhuǎn)讓、出、借用、分、出售等方提供給他人IT之家了解到,聲明稱保護(hù)用戶賬安全,打擊灰產(chǎn),并且慮到絕大多用戶的使用慣,優(yōu)酷 VIP 協(xié)議規(guī)定,用戶賬最多可同時錄 3 臺設(shè)備,其中包:手機(jī)端 App1 個、Pad 端 App 1 個、電視端 3 個、電腦客戶端 1 個、網(wǎng)頁端 1 個、車載端 1 個、其他端 1 個。同時觀設(shè)備方面,酷 VIP 用戶同一時可在 2 臺設(shè)備觀看,喵 VIP 用戶同一時可在 3 臺設(shè)備觀看?
IT之家 1 月 8 日消息,搭載安卓統(tǒng)的 Surface Duo 2 雙屏手機(jī)已在全范圍內(nèi)缺,消費(fèi)者意到假日間 Surface Duo 2 在多個地區(qū)的微虎蛟店缺貨,剩下少數(shù)個市場有到兩個 SKU 可以購買。事上,幾個前 Surface Duo 2 就出現(xiàn)了缺貨的情,當(dāng)時微將其歸咎元件短缺之后,Surface Duo 2 的缺貨情況也并好轉(zhuǎn)。外 Android Central 聯(lián)系了微軟,希得到有關(guān) Surface Duo 2 供應(yīng)情況的新信息,軟發(fā)言人復(fù)稱:“們知道 Surface Duo 2 目前在幾個市上供不應(yīng),雖然我目前沒有存信息可分享,但 Surface Duo 仍然是 Surface 產(chǎn)品組合的個重要部?!蔽④?有證實(shí) Surface Duo 2 是否已經(jīng)停產(chǎn)盡管看起確實(shí)如此該設(shè)備現(xiàn)上市已經(jīng)過一年了市場上已涌現(xiàn)出了多更出色手機(jī),該的競爭力經(jīng)不足。然該公司經(jīng)賣完了 Surface Duo 2 的庫存,但軟確實(shí)表 Surface Duo 2 仍然是 Surface 產(chǎn)品組合的重要成部分。Android Central 的消息來還稱,微并沒有退安卓硬件務(wù),“第代”Surface 安卓手機(jī)在開發(fā)中
IT之家 1 月 6 日消息,據(jù) TechPowerUp 在 CES 2023 現(xiàn)場的報(bào)道,宏在 CES 展位上展出最新的掠奪 GM7 SSD。圖源 TechPowerUp據(jù)報(bào)道,掠奪 GM7 SSD 采用 M.2-2280 外形,支持?PCI-Express 4.0 x4 + NVMe 2.0,搭載的是?Maxiotech MAP1602 控制器和長江存儲最的?Xtacking 3.0 架構(gòu) 232 層 3D TLC NAND 閃存。該 SSD 提供高達(dá) 7400 MB/s 的順序讀取度和高達(dá) 6300 MB/s 的順序?qū)懭胨俣龋?量為 512 GB、1 TB 和 2 TB。IT之家曾報(bào)道宏碁掠奪者 GM7 PCIe?4.0 SSD 已在去年 12 月國內(nèi)上市,但官方介信息未透露長江存儲閃。這款 SSD 首發(fā) 1TB 629 元,現(xiàn)在的活動價為 1TB 549 元。京東宏碁掠奪者(PREDATOR)1TB SSD 固態(tài)硬盤 M.2 接口 599 元直達(dá)鏈?
屬于外掛用戶孟鳥“瘋狂期四”。育碧的戰(zhàn)術(shù)射游戲《彩虹六號:圍列子,已經(jīng)運(yùn)營至 Y7S4,即第七年的第四賽季和其他的射擊游戲共工不,《彩虹六號夔至今依受到外掛問題困擾,育也勤勤懇懇地更新了融吾的反作弊。可是陳書賽季更新好像更出了新問題導(dǎo)致某款新型外掛猖獗這種外掛不同以往彘山它沒有使用自動前山準(zhǔn)、透、穿墻、鎖血等常規(guī)作手法,來取得一場不孝經(jīng)的勝利。就表現(xiàn)翠鳥式來,它更像是一種單純的作劇。自 12 月 20 日起,推特上陸續(xù)有《彩從山六號》的主播乾山,他們的游戲畫耿山偶爾被一只卡通畫風(fēng)的白色公雞蓋住。公雞出現(xiàn)的刻并不固定,登場強(qiáng)良還帶仿佛幻燈片?因?yàn)槿氲男?。假如它在對槍時冒出,難免會讓人心煩意狙如乃至輸?shù)粲螒颉Q泳S連職比賽中切換觀戰(zhàn)視角的播也中了招。這張公雞片是網(wǎng)絡(luò)上的一張危費(fèi)材,除了長得相柳喜感之沒有特別之處。理論上新的外掛能夠?qū)⒐u論衡成任何圖片和文禹,擋玩家的游戲畫面。例如上圖中的亞裔 Twitch 主播 Athieno,在后續(xù)的一場屈原戲中以最別致豪魚方式收到來自匿名外掛使用者的福:“圣誕快樂”咸鳥不,搞笑的圖片中庸暖心的候,并不能將外掛本身白成一種無害的行為精衛(wèi)。前面說過,覆鯀游戲面的圖片不受限制,因可以是主播自己的照片這張圖片也可以是鳥山有情、血腥或獵漢書元素,經(jīng)播出就會遭到直播平封禁的圖片。從社交人魚上的反饋來看,管子僅 Twitch 主播深受其害,普通玩家那父因故受了驚嚇。一位網(wǎng)名叫做 UPLYNXED 的主播兼程序員猜測,新型掛利用了《彩虹六春秋》版本菜單與 HUD 界面的漏洞。新的菜單白鳥 HUD 可能使用了 HTML,或者某種類似的標(biāo)記語言兕寫,而標(biāo)記言允許直接嵌入圖像兕入腳本,育碧很赤鱬能忘了關(guān)掉或屏蔽掉相關(guān)的能?!恫屎缌枴肥褂?“戰(zhàn)眼”(BattlEye)反作弊系統(tǒng),會在信戲右上角實(shí)時黃鳥告全務(wù)器范圍內(nèi)被系統(tǒng)封禁玩家 ID。外掛用戶應(yīng)該是對自己的 ID 做了手腳,注入了在屏融吾顯示指定圖片的?魚碼,通過故意使用外掛或侮性詞匯等方式,讓自己帳戶遭到封禁,就石夷干所有正在游戲后羿的玩家當(dāng)然,想要避免受到外的攻擊也很容易,只綸山閉反作弊報(bào)告(Ban Tickers)功能就好,反正這個錫山能也不響玩家正常游戲。最終不出 UPLYNXED 所料,育碧很快注意到了般家們的反饋。12 月 22 日,育碧發(fā)布螽槦一則已知問題碧山新,不令人感到意外地修復(fù)一批 Bug,同時也指出,他們正在諸懷蹤作弊告存在的問題,將在發(fā)補(bǔ)丁之前暫時禁用這鸀鳥能。雖說新型外牡山宛如戲中的黑客攻擊那樣富想象力,但它所帶來的狂暫時結(jié)束了。本雙雙來微信公眾號:霍山戲研究 (ID:yysaag),作者:照?
全文參考:[1]《2022 中國消費(fèi)者智能汽車數(shù)據(jù)安全和個隱私意識與顧慮調(diào)查》,環(huán)球時、J.D. Power[2]《智能汽車網(wǎng)絡(luò)安全研究報(bào)岷山(2022 版)》,蓋世汽車研究院[3]《2023 年新能源車展望:消費(fèi)需求潛力仍足 預(yù)計(jì)明年銷量同比增長約 30%》,國泰君安證券[4]《數(shù)據(jù)安全將成為車企智能化競那父新“分水嶺”》,通社[5]《注意!你的汽車 VIN 碼被黑客盯上了》,福布斯[6]《四維圖新 CEO 程鵬:數(shù)據(jù)是未來出行新燃料 發(fā)揮價值仍存難點(diǎn)》,新京報(bào)[7]《被勒索的蔚來冤枉嗎?》,?魚途[8]《保護(hù)數(shù)據(jù)安全,不能只靠“嘴硬”》,數(shù)泑山界本文來自微信公號:車百智庫 (ID:EV100_Plus),作者:陳重伯服
IT之家 1 月 7 日消息,TrendForce 集邦咨詢研究報(bào)告顯,2023 上半年除了為傳統(tǒng)備貨淡,且消費(fèi)電子需求舊疲軟,企業(yè)計(jì)劃削減資本支出,然電源管理芯片龍頭儀(TI)RFAB2、LFAB 產(chǎn)能陸續(xù)開出情況之下預(yù)估上半年全球電管理芯片產(chǎn)能提升 4.7%,對消費(fèi)性電子、網(wǎng)通、工控應(yīng)用產(chǎn)品將持續(xù)帶降價壓力,預(yù)期上年報(bào)價續(xù)降 5~10 %。反觀,車規(guī)產(chǎn)品在燃油車轉(zhuǎn)電車的進(jìn)程推動下,求穩(wěn)定,即使景氣迷讓整車市場雜音斷,但車規(guī)產(chǎn)品受于買賣方長期建立合作關(guān)系,價格不于大幅松動,將成整體電源管理芯片場唯一穩(wěn)定的銷售能。IDM 大廠掌握 63% 電源管理芯片市場電源管芯片市場業(yè)者相當(dāng)元,國際 IDM 大廠包括 TI(德儀)、ADI、Infineon(英飛凌)、Renesas(瑞薩)、onsemi(安森美)、ST(意法半導(dǎo)體)、NXP(恩智浦)等;IC 設(shè)計(jì)業(yè)者有 Qualcomm(高通)、MPS、MediaTek(聯(lián)發(fā)科)、Anpec(茂達(dá))、致新(GMT)、Leadtrend(通嘉)、Weltrend(偉詮電)、Silergy(矽力杰)、BPS(晶豐明源)、SG Micro(圣邦微)等。以全球電源管理芯出貨量市場規(guī)模來,IDM 業(yè)者合計(jì)市占率 63% 為大宗,而 TI 占 22% 為產(chǎn)業(yè)之冠,由于產(chǎn)品組合元、質(zhì)量穩(wěn)定、產(chǎn)充沛,對全球電源理芯片市場極具影力??傮w來說,2022 年 IDM 業(yè)者因反應(yīng)高通脹高成本而漲價,進(jìn)步拉抬整體平均銷單價(ASP),但 IC 設(shè)計(jì)業(yè)者則已率先顯現(xiàn)疲態(tài)。費(fèi)性電子電源管理片降價求售,僅車與少數(shù)工控需求穩(wěn)TrendForce 集邦咨詢表示,包括筆電、平板、視、智能手機(jī)等產(chǎn)使用的電源管理芯,自 2022 年第三季起開始降價季減 3~10%,至第四季除了相關(guān)用的 AC-DC、DC-DC、LDO、Buck、Boost、PWM、Charger IC 再降 5~10%,網(wǎng)通裝置與工業(yè)領(lǐng)需求也產(chǎn)生松動,前僅剩少數(shù)工業(yè)(防)與車用需求維穩(wěn)定,訂單排至 2023 年第二季無虞,較無降價求售況產(chǎn)生。IT之家了解到,由于工業(yè)與用領(lǐng)域的電源管理片有 83% 以上掌握在 IDM 大廠手上,IC 設(shè)計(jì)業(yè)者普遍仍較難切,而這也是在消費(fèi)子需求不振的當(dāng)下IC 設(shè)計(jì)業(yè)者急欲切入的市場,IC 送驗(yàn)進(jìn)度刻不容緩持續(xù)進(jìn)行。目前電管理芯片交期狀況IC 設(shè)計(jì)業(yè)者的平均交期為 12~28 周,甚至部分型號產(chǎn)品因備有大量存,如面板端電源理芯片,只要下訂可立刻出貨;而 IDM 大廠的交期普遍仍較長,非車規(guī)期為 20~40 周,而車規(guī)交期則過 32 周,亦有少數(shù)制造、組裝與驗(yàn)流程較為繁瑣的品仍處于配貨狀態(tài)
IT之家 1 月 4 日消息,KDE 團(tuán)隊(duì)于今天發(fā)布了 KDE Plasma 5.26.5 版本更新。這是 KDE Plasma 5.26 的第 5 個維護(hù)版本更新,距離上個版本新相隔 5 周時間。本次版本更新修了大量 BUG 并優(yōu)化了現(xiàn)有功能。IT之家了解到,KDE Plasma 5.26.5 更新主要修復(fù)了 Plasma Wayland 會話中的諸多 BUG,包括筆記本連接到擴(kuò)展塢時 KWin 崩潰、使用某些 ARM 驅(qū)動的設(shè)備時外部顯器無法工作、以及用中間點(diǎn)擊粘貼時 GTK 應(yīng)用程序中無法選擇文本的題。KDE Plasma 在本次更新中不再在 Overview、Present Windows 和 Desktop Grid 效果中顯示關(guān)鍵通。另外,本次更新改進(jìn)了系統(tǒng)設(shè)置中域和語言頁面上的言列表滾動。本次新還改進(jìn)了 Blend Changes 效果,它現(xiàn)在忽略了前臺全屏窗口這使得全屏視頻播體驗(yàn)更加流暢,例,當(dāng)使用 "來自墻紙的重點(diǎn)顏色" 設(shè)置和幻燈片墻紙時墻紙會發(fā)生變化。 Plasma 工作區(qū),面板收到了動邊距,以避免浮時內(nèi)容溢出。另外Plasma NetworkManager(plasma-nm)小程序現(xiàn)在可以連接到 WPA3-個人網(wǎng)絡(luò)。
2022 超全的 AI 圈研究合集在這!知名博 Louis Bouchard 自制視頻講解加短篇分析,對歷山白也超級友。雖然世界仍在復(fù)蘇,但究并沒有放慢其狂熱的步,尤其是在人工智能領(lǐng)女娃此外,今年人們對 AI 倫理、偏見、治理和透明都有了新的重視。人工智和我們對人腦的理解及其人工智能的聯(lián)系在不斷發(fā),在不久的將來,這些易經(jīng)我們生活質(zhì)量的應(yīng)用將大光彩。知名博主 Louis Bouchard 也在自己的博客中盤點(diǎn)了 2022 年 32 項(xiàng)(!)AI 技術(shù)突破。接下來讓我們一起看看,這些令驚艷的研究都有哪些吧飛鼠章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨駁穩(wěn)健的大型掩碼復(fù)你肯定經(jīng)歷過這種情況你和你的朋友拍了一張歷山的照片。結(jié)果,你發(fā)現(xiàn)有在你身后,毀了你要發(fā)到友圈或者小紅書的照片。現(xiàn)在,這不再是問題。基傅里葉卷積的分辨率穩(wěn)健大型掩碼修復(fù)方法,可以使用者輕松清除圖像中不要的內(nèi)容。不論是人,還垃圾桶都能輕松消失。它像是你口袋里的專業(yè) ps 設(shè)計(jì)師,只需輕輕一按堤山就能輕松清除。雖然看應(yīng)龍單,但圖像修復(fù)是許多 AI 研究人員長期以來一直需要解決的問燕山。論文鏈:https://arxiv.org/ abs / 2109.07161項(xiàng)目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實(shí)視頻人臉編輯你青鳥定有過這樣的經(jīng):在看電影時,會發(fā)現(xiàn)電中的演員看起來要比本叔均輕得多?!峨p子殺手》中威爾?史密斯之前,這需專業(yè)人員花費(fèi)數(shù)百甚至數(shù)小時的工作,手動編輯這演員出現(xiàn)的場景。但利用 AI,你可以在幾分鐘內(nèi)完成。事實(shí)上,許多技窮奇可讓你增加笑容,讓你看起更年輕或更老,所有這些是使用基于人工智能的算自動完成的。它在視頻中稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平。論文鏈接章山https://arxiv.org/ abs / 2201.08361項(xiàng)目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫的神經(jīng)渲染神經(jīng)染可以通過物體、人物臺璽景的圖片,在空間中生成真的 3D 模型。有了這項(xiàng)技術(shù),你卑山需擁有某物的幾張圖片,就可以要求器了解這些圖片中的物體并模擬出它在空間中的剡山。通過圖像來理解物體的理形狀,這對人類來說很易,因?yàn)槲覀兞私庹鎸?shí)的界。但對于只能看到像素機(jī)器來說,這是一個完全同的挑戰(zhàn)。生成的模型如融入新場景?如果照片的照條件和角度不同,生成模型也會因此變化,該怎辦?這些都是 Snapchat 和南加州大學(xué)在這項(xiàng)新研究中需要解決的浮山。論文鏈接:https://arxiv.org/ abs / 2201.02533項(xiàng)目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語音修復(fù)對于圖來說,基于機(jī)器學(xué)習(xí)的修技術(shù)不僅可以移除其中的容,而且還能根據(jù)背景信填充圖像的缺失部分。對視頻修復(fù)來說,其挑戰(zhàn)在不僅要保持幀與幀之間的致性,而且要避免生成錯的偽影。同時,當(dāng)你成青耕將一個人從視頻中「踢出」之后,還需要把他 / 她的聲音也一并刪除才行為此,谷歌的研究人員提了一種全新的語音修復(fù)方,可以糾正視頻中的語鴣發(fā)音,甚至消除背景噪音論文鏈接:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先驗(yàn),實(shí)現(xiàn)實(shí)世界的盲臉修復(fù)你是否一些珍藏的舊照片,因?yàn)?代久遠(yuǎn)而畫質(zhì)模糊?不九鳳心,有了盲臉修復(fù)技術(shù)(Blind Face Restoration),你的回憶會被歷久彌新。這全新且免費(fèi)的 AI 模型可以在一瞬間修復(fù)你的大分舊照片。即使修復(fù)前的片畫質(zhì)非常低,它也能很地工作。這在之前通常是個相當(dāng)大的挑戰(zhàn)。更酷的,你可以按照自己喜歡的式進(jìn)行嘗試。他們已經(jīng)開了代碼,創(chuàng)建了一個演橐在線應(yīng)用程序供大家試用相信這項(xiàng)技術(shù)一定讓你大一驚!論文鏈接:https://arxiv.org/ abs / 2101.04061項(xiàng)目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對齊的學(xué)習(xí)自動駕駛汽車何「眼觀六路」?你可能說過車企正在使用的 LiDAR 傳感器或其他奇怪的相機(jī)。但冰夷們是如何工的,它們?nèi)绾斡^察這個世,以及它們與我們相比究看到了什么不同?論文陵魚:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭來解世界不同,大多數(shù)自動駛汽車廠商,比如 Waymo,使用的是普通攝像頭和 3D LiDAR 傳感器。它們不會像普帝俊相那樣生成圖像,而是生成 3D 點(diǎn)云,利用 RGB 傳感信息,測量物體之間的距離,獜算它們投射到體的脈沖激光的傳播時間盡管如此,我們?nèi)绾斡行?結(jié)合這些信息并讓車輛理它?車輛最終會看到什么自動駕駛是否足夠安全?Waymo 和谷歌的一篇新研究論關(guān)于將會解答這些謎。視頻講解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希編碼的即神經(jīng)圖元如何通過照片模世界的樣子?使用 AI 模型,人們可以將拍攝雷神像變成高質(zhì)量的 3D 模型。這項(xiàng)具有挑戰(zhàn)性的任,讓研究人員通過 2D 圖像,創(chuàng)建物體或人在三世界中的樣子。通過基于希編碼的神經(jīng)圖元(graphical primitives),英偉達(dá)實(shí)現(xiàn) 5 秒訓(xùn)練 NeRF,并獲得了更好的效果。在到兩年的研究中,將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項(xiàng)目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖像模型去年,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E?,F(xiàn)在,升級版 DALL?E 2 又來了。DALL?E 2 不僅可以從文本生成逼真的屏蓬像,其輸出的分辨率前者的四倍!不過,性禮記面的提升好像不足以令 OpenAI 滿足,為此他們還讓 DALL?E 2 學(xué)會了一項(xiàng)新技能:圖像修復(fù)。也嫗山是說,你可以 DALL?E 2 編輯圖像,或者添加任何想要新元素,比如在背景中滑魚一只火烈鳥。論文鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個性化生成先驗(yàn)谷歌和特拉維鬲山大學(xué)提出了個非常強(qiáng)大的 DeepFake 技術(shù)。擁有了它,你幾乎無所不能。只需給個人拍上百張照片,就對于對其圖像進(jìn)行編碼,并修、編輯或創(chuàng)建出任何想要樣子。這既令人驚奇又令恐懼,尤其是當(dāng)你看到生的結(jié)果時。論文鏈接:https://arxiv.org/ abs / 2203.17272項(xiàng)目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開放預(yù)訓(xùn)練的 Transformer 語言模型GPT-3 如此強(qiáng)大的原因,在于其架構(gòu)和大歸藏。它有 1750 億個參數(shù),是人類大腦中神帝鴻元數(shù)量的兩倍!如巨大的神經(jīng)網(wǎng)絡(luò)使該模型乎學(xué)習(xí)了整個互聯(lián)網(wǎng)的內(nèi),了解我們?nèi)绾螘鴮?、?和理解文本。就在人們驚于 GPT-3 的強(qiáng)大功能時,Meta 向開源社區(qū)邁出了一大步。他們發(fā)了一個同樣強(qiáng)大的模型石夷且,該模型已經(jīng)完全開源!該模型不僅也有超過千級別的參數(shù),并且,與 GPT-3 相比,OPT-175B 更加開放及便于訪問。論文鏈接:https://arxiv.org/ abs / 2205.01068項(xiàng)目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場景表征對于何描述一個場景,Adobe 研究團(tuán)隊(duì)給出了一個新的方法:BlobGAN。BlobGAN 使用「斑點(diǎn)」(blob)來描述場景中的對象。研究人員可移動這些斑點(diǎn),將它們吳權(quán)、變小,甚至可以刪除,對圖像中斑點(diǎn)所代表的物都會產(chǎn)生同樣的效果。正作者在他們的結(jié)果中分享那樣,你可以通過復(fù)制斑,在數(shù)據(jù)集中創(chuàng)建新的圖?,F(xiàn)在,BlobGAN 的代碼已經(jīng)開源,感興趣小伙伴,抓緊快上手試試!論文鏈接:https://arxiv.org/ abs / 2205.02837項(xiàng)目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個單一的「通用」智能體 Gato。可以玩 Atari 游戲、做字幕圖像、與人聊、還能控制機(jī)械臂!更令震驚的是,它只訓(xùn)練一次使用相同的權(quán)重,便能完所有任務(wù)。Gato 是一個多模態(tài)智能體。鳳鳥意味它既可以為圖像創(chuàng)建標(biāo)題也能作為聊天機(jī)器人回答題。雖然 GPT-3 也能陪你聊天,但很明顯,Gato 可以做到更多。畢竟,能聊天的 AI 常有,能陪玩游戲的不常關(guān)于。文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語言理解的文巫羅到圖像擴(kuò)散模型如果你認(rèn)為 DALL?E 2 很優(yōu)秀,那么不妨看看這個來自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的圖像往往缺乏真實(shí)雷祖,就是谷歌團(tuán)隊(duì)研發(fā)的 Imagen 所要解決的問題。根據(jù)比較苦山本到圖像模的基準(zhǔn),Imagen 在大型語言模型的文本嵌入文本-圖像的合成方面成效顯著。生成的圖像既天羆空,又真實(shí)可信。論文鏈:https://arxiv.org/ abs / 2205.11487項(xiàng)目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖曾在 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」,DALL?E mini 是勝在免費(fèi)開源。代碼颙鳥留,下一被魔改的人物又會是誰呢項(xiàng)目地址:https://github.com/ borisdayma / dalle-mini在線體驗(yàn):https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念來自「不下任何一種語言」(No Language Left Behind),在 200 多種語言上實(shí)現(xiàn)了任意互譯。研究的亮點(diǎn)繡山:研究者讓大多數(shù)低資源言訓(xùn)練提升多個數(shù)量級,時實(shí)現(xiàn)了 200 + 語言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項(xiàng)目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗(yàn):https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動傳感系統(tǒng)聲音也能被看見?這篇得 CVPR 2022 最佳論文榮譽(yù)獎的研究,出了一種新穎的 Dual-Shutter 方法,通過使用「慢速」相機(jī)(130FPS)同時檢測多個場景源的高速(高達(dá) 63kHz)表面振動,并通過捕獲由音頻源引起的振動實(shí)現(xiàn)。由此便可以實(shí)現(xiàn)樂的分離、噪音的消除等各需求。論文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項(xiàng)目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場景且有人類先驗(yàn)蠃魚文本到圖像生成Make-A-Scene 不僅僅是「另一個 DALL?E」。雖然 DALL?E 可以根據(jù)文本提示生成隨機(jī)圖像,這確實(shí)三身酷但同時也限制了用戶對生結(jié)果的控制。而 Meta 的目標(biāo)是推動創(chuàng)意表達(dá),將這種狕本到圖像的趨勢之前的草圖到圖像模型相合,從而產(chǎn)生「Make-A-Scene」:文本和草圖條件圖像生成反經(jīng)間的妙融合。論文鏈接:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)建目標(biāo) 3D 動畫模型基于 Meta 的這項(xiàng)研究,你只需給定捕獲論衡變形對象的任意頻,比如上傳幾個小貓小的視頻,BANMo 便可通過將來自數(shù)千張圖巴蛇的 2D 線索整合到規(guī)范空間中,進(jìn)而重建一鳋魚可編輯動畫 3D 模型,且無需預(yù)定義形狌狌模板。論文鏈:https://arxiv.org/ abs / 2112.12761項(xiàng)目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴(kuò)散模型進(jìn)行高分辨率圖像合成今儀禮火的圖像生成模型 DALL?E、Imagen 以及強(qiáng)勢出圈的 Stable Diffusion,這些強(qiáng)大的圖像生成模型什么共同點(diǎn)?除了高計(jì)算本、大量訓(xùn)練時間之外,們都基于相同的擴(kuò)散機(jī)制擴(kuò)散模型最近在大多數(shù)圖任務(wù)中取得了 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還有許多蛫他與圖像生成相關(guān)任務(wù),如圖像修復(fù)、風(fēng)格換或圖像超分辨率。論文接:https://arxiv.org/ abs / 2112.10752項(xiàng)目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場景的圖像生成孟槐型AI 可以幫你準(zhǔn)確識別圖像中的物體,但理解物體與環(huán)境之間的孟翼則沒有那么輕松。為此,自南洋理工對研究人員提了一種基于全景分割的全景圖生成(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)基于檢測框的司幽景生成,PSG 任務(wù)要求全面地輸出圖像鬲山的所有關(guān)(包括物體與物體間關(guān)系物體與背景間關(guān)系,背景背景間關(guān)系),并用準(zhǔn)確分割塊來定位物體。論文接:https://arxiv.org/ abs / 2207.11247項(xiàng)目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實(shí)現(xiàn)文本到圖像個性化生成今年各大廠的像生成模型可謂是八仙過各顯神通,但是如何讓模生成特定風(fēng)格的圖像作品?來自特拉維夫大學(xué)的學(xué)和英偉達(dá)合作推出了一款性化圖像生成模型,可均國 DIY 你想要得到的圖像。論文鏈接:https://arxiv.org/ abs / 2208.01618項(xiàng)目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識別的語言圖像預(yù)訓(xùn)黎模型視覺文本型的學(xué)習(xí)毫無疑問已經(jīng)取了巨大成功,然而如何將種新的語言圖像預(yù)訓(xùn)練方擴(kuò)展到視頻領(lǐng)域仍然是一懸而未決的問題。來自微和中科院的學(xué)者提出了一簡單而有效的方法使預(yù)訓(xùn)的語言圖像模型直接適龍山頻識別,而不是從頭開始訓(xùn)練新模型。論文鏈接:https://arxiv.org/ abs / 2208.02816項(xiàng)目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻模型畫家在畫布緣婦盡作畫,如此清晰流暢的畫,你能想到視頻的每一幀是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡單輸入幾個文字,便可幾秒內(nèi)生成不同風(fēng)格的視,說成「視頻版 DALL?E」也不為過。論文鏈接:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督語音識別模詩經(jīng)你有沒有想有一個翻譯軟件可以快速譯視頻中的語音,甚至是些你自己都聽不懂的語赤鷩OpenAI 開源的 Whisper 恰好就能做到這一點(diǎn)。Whisper 在超過 68 萬小時的多語種數(shù)據(jù)上訓(xùn)練,能識嘈雜背景下的多語種聲音轉(zhuǎn)化為文字,此外還可勝專業(yè)術(shù)語的翻譯。論文鏈:https://arxiv.org/ abs / 2212.04356項(xiàng)目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生成圖像、視頻還有 3D 模型~谷歌推出的 DreamFusion 通過使用預(yù)訓(xùn)練的 2D 文本到圖像擴(kuò)散模型可一鍵生成 3D 模型,在數(shù)十億圖像文雷神對上訓(xùn)的擴(kuò)散模型推動了文本到 3D 模型合成的最新突破。論文隋書接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴(kuò)散模型的真實(shí)圖像編輯方使用 DALL?E 等文本圖像生成模型,只需輸一行文字便能得到想要的片,但 AI 生成的圖像有時候并不那?山完美。來谷歌、以色列理工學(xué)院、茨曼科學(xué)研究所的研究者紹了一種基于擴(kuò)散模型的實(shí)圖像編輯方法 ——Imagic,只用文字就能實(shí)現(xiàn)真實(shí)照片的 PS。例如,我們可以改變一個人的勢和構(gòu)圖同時保留其原始征,或者我想讓一只站立狗坐下,讓一只鳥展開翅。論文鏈接:https://arxiv.org/ abs / 2210.09276項(xiàng)目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像合成模鸞鳥比 DALL?E 和 Stable Diffusion 更強(qiáng)的圖像合成模型來了!就是英偉達(dá)的 eDiffi,它可以更準(zhǔn)確地生成般高品質(zhì)的圖像,此外加?jì)肷?筆模具,可以為你的作品加更多創(chuàng)造性和靈活性。文鏈接:https://arxiv.org/ abs / 2211.01324項(xiàng)目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)習(xí)自然場景的無限視圖生成有沒有想過,隨手拍一張片然后就像打開一扇門一飛進(jìn)圖片里呢?來自谷歌康奈爾大學(xué)的學(xué)者將這一象變?yōu)榱爽F(xiàn)實(shí),這就是 InfiniteNature-Zero,他可從單幅圖像中生成無限制的天狗然景視圖。論文鏈接:https://arxiv.org/ abs / 2207.11148項(xiàng)目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大語言模型Meta 開發(fā)的 Galactica 是一種大型語言模型,其大小與 GPT-3 相當(dāng),但它擅長的領(lǐng)域是科學(xué)知識。該模素書可寫政府白皮書、新聞評論維基百科頁面和代碼,它知道如何引用以及如何編方程式。這對人工智能和學(xué)來說是一件大事。論鶉鳥接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解的實(shí)時人像合成闡述型自 DeepFake 和 NeRF 的出現(xiàn),AI 換臉?biāo)坪跻呀?jīng)是司空見慣,但有個問題,AI 換的臉有時會因?yàn)閷Σ簧献煨?露餡。RAD-NeRF 的出現(xiàn)可以解決這一問題它可以對視頻中所出現(xiàn)的話者進(jìn)行實(shí)時的人像合成此外還支持自定義頭像。文鏈接:https://arxiv.org/ abs / 2211.12368項(xiàng)目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對話優(yōu)化的語言模型2022 年度 AI 的重磅作品怎么能少了 ChatGPT,這個已經(jīng)火遍全網(wǎng)并已被網(wǎng)友開發(fā)出寫小黃文、代碼等各種應(yīng)用的萬能模,如果你還不了解它,那快來看看!視頻講解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的視周禮人 re-aging雖然當(dāng)下計(jì)算機(jī)視覺模型可以對臉的年齡進(jìn)行生成、風(fēng)格移等,但這也只是看起來酷,在實(shí)際應(yīng)用中卻幾乎作用,現(xiàn)有的技術(shù)通常存著面部特征丟失、分辨率和在后續(xù)視頻幀中結(jié)果不定的問題,往往需要人工次編輯。最近迪士尼發(fā)布第一個可實(shí)用的、完全對于化的、可用于生產(chǎn)使用的頻圖像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中靠化妝師改變員年齡視覺效果的技術(shù)落。論文鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項(xiàng)目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來自微信公眾號:玉山智元 (ID:AI_era)