根據《每日郵報》報導,該研究分析了ChatGPT於2020年11月3 日公開推出後,前四個月內的344名早期使用者行為。研究團隊發現,使用者對AI的動機、信任程度與隱私態度存在顯著差異,並可分為四個群體。
人工智慧愛好者
第一類為「人工智慧愛好者」,約佔受訪者的25.6%,這類使用者高度投入,積極尋求AI在生產力與社會層面的效益。他們普遍認為人工智慧具有實際價值,也是唯一明顯感受到與聊天機器人互動時「社交存在感」的族群。研究指出,這些人傾向於將AI視為能提供情感連結的工具,對系統整體信任度較高,且幾乎不擔憂隱私問題。
天真的實用主義者
第二類為「天真的實用主義者」,佔20.6%。這群使用者以結果導向為主,最看重便利性與效率。研究顯示,他們重視AI在工作與生活中的實際幫助,但對其社會影響興趣有限,同時也較容易忽略潛在的隱私風險。
謹慎的使用者
人數最多的是第三類「謹慎的使用者」,約佔35.5%。研究人員形容這類使用者兼具好奇心與警惕性,在使用AI時不斷權衡功能帶來的好處與可能的負面影響。相較前兩類,他們對資料安全與隱私問題更為敏感。
謹慎的探索者
最後一類為「謹慎的探索者」,佔18.3%,也是最保留態度的族群。這些使用者對AI的實際效益仍存疑,多半只是試探性使用,尚未被完全說服。他們普遍認為ChatGPT對個人幫助有限,並對隱私問題抱持高度警戒。
研究主要作者、洪堡網際網路與社會研究所學者克里斯托夫.格林博士指出,人工智慧的使用表面上看似直覺,但真正掌握仍需要透過探索、技能培養與實驗學習。他強調,AI與使用者之間的「任務與技術匹配」,比以往任何科技都更加依賴個人差異。
此外,研究也發現,儘管四個群體中有三類對隱私風險抱持高度憂慮,但所有群體仍持續使用ChatGPT。研究團隊因此警告,過度將人工智慧擬人化,可能反而削弱部分使用者的信任感。特別是重視隱私的族群,可能會將潛在風險歸咎於AI本身,而非背後的開發公司,進而加速信任流失。
研究結果顯示,人工智慧的未來發展不僅是技術問題,更涉及使用者心理與社會互動層面,如何因應不同類型使用者,將成為AI普及的重要關鍵。


