啊用力使劲快点好深视频试看_韩国r级理论片在线观看_国产成人精品久久一区二区三区_亚洲国产精彩中文乱码AV_性色生活片久久毛片_欧美午夜影院_大胸校花被老头粗暴在线观看_不卡精品成人电影_国产麻豆精品入口在线观看_18禁黄网站禁片无遮挡观看下载,18禁无遮挡羞羞污污污污免费特级毛片在线大全免费播放 ,制服丝袜人妻综合第1页,青草伊人久久

信息技術發(fā)展 我們需要什么樣的“算法”,?

2020年11月16日 07:13    來源:人民日報海外版   

  原標題:隨著信息技術發(fā)展,、大數據廣泛應用,算法推薦讓信息傳播更加個性化,、定制化,、智能化,但也出現(xiàn)了一些亂象——我們需要什么樣的“算法”,?

  您是否有過類似經歷:在求職網站填寫一份有關工作喜好的調查,,網站會自動推送匹配的崗位;打開購物軟件,,發(fā)現(xiàn)頁面上多是近期搜索或瀏覽過的商品,;通過App閱讀一條養(yǎng)生信息,隨后便會經常收到養(yǎng)生知識,、養(yǎng)生產品的廣告推送……伴隨著信息技術迅猛發(fā)展,、大數據廣泛應用,算法推薦技術正在將人們帶入個性化,、定制化,、智能化更強的信息傳播時代。

  因為算法推薦,,互聯(lián)網平臺越來越能抓住用戶的心,,幫助人們更加方便、精準地獲取信息,,也牢牢吸引了用戶的注意力,。據不完全統(tǒng)計,當前基于算法的個性化內容推送已占整個互聯(lián)網信息內容分發(fā)的70%左右,。算法推薦逐漸成為各平臺“基本操作”的同時,,諸如低俗劣質信息精準推送、“大數據殺熟”等亂象也凸顯出來,。

  作為數字經濟的重要推動力,,算法如何實現(xiàn)更高質量發(fā)展?移動互聯(lián)時代,,我們究竟需要怎樣的“算法”,?

  

  互聯(lián)網平臺越來越“懂”用戶了嗎?

  “看完一個短視頻后,,平臺會自動推薦很多相關視頻,,很方便,。”在北京一家企業(yè)工作的陳輝是某款網絡對戰(zhàn)游戲的“發(fā)燒友”,,平時喜歡通過手機觀看相關短視頻來提高操作水平,。他發(fā)現(xiàn),隨著刷短視頻的頻率增加,,平臺推薦的相關視頻越來越多,,“游戲攻略、英雄介紹,、對戰(zhàn)視頻都有,,電商平臺還會推薦鼠標、鍵盤,�,!�

  這些平臺的自動推薦功能,運用了一種叫算法推薦的技術,。這是一種通過人工智能分析和過濾機制對海量數據進行深度分析,、完成信息內容與用戶精準匹配的技術。

  自從1994年美國明尼蘇達大學研究組推出第一個自動化推薦系統(tǒng),,算法推薦技術如今已深入到資訊,、社交、電商,、短視頻,、搜索引擎等平臺和互聯(lián)網應用中。

  互聯(lián)網平臺變得越來越“懂”用戶,,在極大方便用戶獲取信息的同時,,也容易引發(fā)一些用戶尤其是青少年不同程度的沉迷問題。

  “說好只看5分鐘,,結果一刷就是幾小時,。”貴州省貴陽市的林忠信說,,他12歲的兒子最近迷上刷一些惡搞的短視頻,,不僅影響學習成績,與同伴一起進行戶外活動的時間也少了,。

  從去年5月底開始,,全國主要網絡短視頻平臺中推廣青少年防沉迷系統(tǒng)。在“青少年模式”下,,大多數平臺主要推送教育類,、知識類等有益內容。但是,,在缺乏監(jiān)護人照管監(jiān)督的情況下,,防沉迷系統(tǒng)效果容易打折扣,。

  有受訪者反映,,一些新聞資訊,、網絡社交等平臺的個性化推送存在“泛娛樂化信息多、低俗內容多,、未經核實內容多”的“三多”現(xiàn)象,;一些網絡社交等平臺防沉迷手段較少,容易導致青少年沉迷和盲目模仿,。

  北京大學中國社會與發(fā)展研究中心主任邱澤奇對記者表示,,對自我的偏好是人類認知偏好的一部分,“偏好”閱讀可能加速形成“信息繭房”效應和“情緒傳染”效應,,前者易導致視野局限,,后者易使個人情緒受他人感染。

  一些喜歡網購的人還可能因遭遇“大數據殺熟”而蒙受損失,。一些平臺利用算法技術給不同類型消費者數據“畫像”,,判斷其偏好、用戶黏合度,、價格敏感度等,,使不同用戶看到的價格或搜索的結果不同。通常是老用戶看到的價格比新用戶貴,,或搜索到的結果比新用戶少,。

  今年“雙11”期間,北京消費者韓女士發(fā)現(xiàn),,她通過某App預訂一家酒店,,“同一時間,不同手機”預訂,,價格相差約1000元,。

  9月中旬,微博上發(fā)起的一個投票顯示,,有1.5萬人認為自己遇到價格明顯差異的情況,,占所有投票人員的近八成。

  “算法”是中性的,,問題出在人身上

  算法技術的重要意義在于,,將此前基于人力的“人找信息”轉變成基于電腦自動化運算的“信息找人”,既極大解放了人力,,又更高效地完成了人和信息的匹配,。

  從2012年起,互聯(lián)網平臺今日頭條在業(yè)內較早將算法推薦系統(tǒng)應用到資訊領域的產品中,,實現(xiàn)了系統(tǒng)的自動學習推薦,。據今日頭條算法架構師曹歡歡介紹,,推薦系統(tǒng)綜合考量內容特征、用戶特征,、環(huán)境特征等因素進行決策,。例如,環(huán)境特征包括上班期間,、上班路上,、下班休息等不同場景下用戶的興趣偏好信息。

  為幫助用戶發(fā)現(xiàn)更多興趣點,,今日頭條不斷引入多領域的優(yōu)質內容生產者,,并運用算法推薦給用戶;推出“靈犬”反低俗助手,,剔除低俗信息,。推薦系統(tǒng)還增加了消重和打散策略,前者旨在消除內容相似文章推薦,,后者降低了同領域或主題文章的推薦頻率,。

  不過,在頭部互聯(lián)網平臺切實嚴格自律的同時,,仍有一些采編流程不規(guī)范,、管理不嚴的網絡社交媒體、新聞客戶端在業(yè)務導向上走偏了,。主要表現(xiàn)在:

  ——向用戶推薦劣質信息,。部分平臺為留住用戶,不斷向用戶推薦其關注過的相似內容,,其中摻雜低俗媚俗,、色情暴力、真假難辨,、缺乏深度,、價值觀導向錯亂等信息。一些互聯(lián)網平臺為增加點擊率和流量,,還會進行人工推薦,,主動推薦“博眼球”、打“擦邊球”信息,,很多用戶直呼“辣眼睛”,。這反映出一些平臺社會責任感缺失,更忽視了價值觀建設,。

  ——增加用戶權益保護難度,。一些算法推薦的內容過度強化用戶偏好,影響了用戶對于信息內容的自主選擇權,加劇“信息繭房”效應,,極易造成個體與社會的隔離,,缺乏對當下國情世情的深刻認識和判斷。由于依托于用戶瀏覽記錄等數據,,算法推薦若設計不當,,還可能侵犯用戶個人隱私。

  ——進行“大數據殺熟”,。中國傳媒大學大數據研究中心教授沈浩介紹,,對于算法而言,,通過用戶數據量以及數據更新頻次,,可輕易判斷出是“生客”還是“熟客”。結果是平臺大賺,,商家,、消費者利益受損,還容易導致壟斷,。

  作為一項技術應用,,算法推薦是中性的,問題出在設計者,、操作者身上,。

  一方面,奉行“流量至上”的單一價值導向,。一些平臺為應對競爭,,將用戶停留時間作為重要考核指標,忽視了自身作為“把關人”的角色定位,。而“把關人”必須用積極健康,、符合公序良俗的價值觀,指引算法推薦的設計和應用,,方能確保推送內容價值導向正確,。

  另一方面,過度追求“利益至上”,,利用其信息不對稱優(yōu)勢侵犯消費者合法權益,。這是一個需要引起足夠重視的法律問題。

  “一些算法的頂層設計思路存在問題,�,!敝袊缈圃盒畔⒒芯恐行闹魅谓嫫綄τ浾弑硎荆麛祵W家,、邏輯學家圖靈等學者在勾畫人工智能圖景時提出,,人和機器是對等、雙向互進的關系,,但現(xiàn)在一些算法設計呈現(xiàn)出人與機器的關系是單項的,。比如在大數據方面,,迷信相關分析,忽略因果分析,。在定義算法效率方面,,只把專業(yè)化效率定義為效率,而實際上多樣化效率也是一種效率,。

  大數據,、算法推薦應更有“溫度”

  有網友最近在一個問答平臺發(fā)文稱,自己在某社交平臺和朋友聊天時提到了一款掃地機,,隨后該平臺出現(xiàn)了掃地機器人的廣告,。在跟帖中,很多網友疑問:“平臺是否可能利用算法等技術,,抓取用戶聊天記錄進行廣告精準投放,?”

  App專項治理工作組專家何延哲今年9月表示,四部委App專項治理工作組在對App多批次檢測中尚未發(fā)現(xiàn)App有“竊聽”行為,。但App“竊聽”在技術實現(xiàn)上是有一定可能性的,,相關部門有必要出臺規(guī)定,明確企業(yè)進行大數據“畫像”時能否使用個人語音信息,,讓用戶更放心,。

  從另一角度看,社會輿論的疑問其實指向了大數據,、算法等技術應用的價值導向問題,。如何規(guī)范使用大數據、算法技術,,讓其變得更有“溫度”,、更讓人放心?需要建立起一套行之有效的監(jiān)管體系,、評價系統(tǒng),,確保算法設計者、操作者以健康,、正確,、積極的價值觀,指引算法推薦的設計和應用,。

  相關立法和監(jiān)管亟待加強,,特別是要強化對算法推薦本身的法治監(jiān)管。

  例如,,正在公開征求意見的《個人信息保護法(草案)》規(guī)定,,個人認為自動化決策對其權益造成重大影響的,有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。

  11月10日,,國家市場監(jiān)管總局發(fā)布的《關于平臺經濟領域的反壟斷指南(征求意見稿)》規(guī)定,,基于大數據和算法,根據交易相對人的支付能力,、消費偏好,、使用習慣等,實行差異性交易價格或者其他交易條件,;對新老交易相對人實行差異性交易價格或者其他交易條件,;實行差異性標準、規(guī)則,、算法,;實行差異性付款條件和交易方式等,都可能被認定為“大數據殺熟”等不正當競爭行為而面臨更嚴格監(jiān)管,。

  北京大學電子商務法研究中心主任薛軍對記者表示,,應針對算法運用的場景,、對公民基本權益的影響,,對算法進行不同強度的監(jiān)管。除了法律規(guī)定需更加明確外,,可以建立某種社會化的評議機制,,對平臺運用算法產生的后果進行評價,要求平臺基于公共價值予以優(yōu)化,。

  壓實平臺的社會責任,。曹歡歡表示,今日頭條已不完全依賴算法推薦,,而是一個綜合“算法+熱點+搜索+關注”的通用信息平臺,,以幫助用戶拓展興趣。用戶還可以選擇關閉“個性化推薦”按鈕或“永久清除歷史行為”,,自主選擇獲取信息的方式,。

  “應該在算法技術內講價值倫理,把人之為人的一面當作技術本身來考慮,,倡導企業(yè)在商業(yè)行為中履行社會責任,。”姜奇平認為,,對算法推薦技術和平臺的監(jiān)管應確保公平和效率,、個人信息開發(fā)與保護、個人信息與平臺信息等方面的平衡,,在促進數字經濟服務業(yè)態(tài)健康發(fā)展層面考慮,,可按照個性化信息服務所得和付出的均衡原則進行政策調整。他建議,確保消費者對信息采集者的服務好壞有評判權,,使消費者始終處于主動地位,。

  有專家認為,監(jiān)管部門應督促企業(yè)調整業(yè)務邏輯,,將正面價值取向,、用戶高品質追求作為關鍵標簽納入算法頂層設計之中;政府,、學校,、家長、平臺各方應責任共擔,,不斷提升青少年網絡素養(yǎng),。(記者 彭訓文)

更多精彩內容,請點擊進入文化產業(yè)頻道>>>>>

(責任編輯: 李冬陽 )

信息技術發(fā)展 我們需要什么樣的“算法”,?

2020-11-16 07:13 來源:人民日報海外版
查看余下全文