好文推荐 | 大语言模型(LLMs)栏目文章精选——HCIN编辑荐读
33
2025-04-21 17:05:34(已编辑)
   收录于合集: # 学术资源
0
0
0
用微信扫描二维码

近几年,大语言模型(LLMs)无疑是人工智能发展过程中最为热门的话题之一。这些模型以其强大的语言生成和理解能力,正在深刻改变着自然语言处理(NLP)领域的研究和应用方向。Human-Centric Intelligent Systems(HCIN) 作为一本致力于传播以人为本的智能系统的所有理论和实际应用的最新研究成果的期刊,为这一领域的研究提供了重要的平台。

为了帮助学者更好地了解大语言模型在不同领域的最新进展,HCIN期刊编辑部精心筛选了一系列高质量文章。这些文章涵盖了AI成瘾性与依赖性、跨语言机器翻译错误分析等研究方向。这些文章不仅展示了大语言模型在不同应用场景中的潜力,也揭示了其在实际应用中可能面临的挑战和问题。希望本次的好文推荐能为学者的科研工作带来启发,推动以人为本的智能系统领域的进一步发展。

 

1、Can ChatGPT Be Addictive? A Call to Examine the Shift from Support to Dependence in AI Conversational Large Language Models

作者:Ala YankouskayaMagnus Liebherr & Raian Ali 

DOI:https://doi.org/10.1007/s44230-025-00090-w 

研究动机:

随着人工智能技术的快速发展,尤其是像ChatGPT这样的大型语言模型(LLMs)在日常生活中的广泛应用,人们对其潜在的成瘾性问题产生了关注。本文旨在探讨AI对话模型从支持性工具转变为依赖性工具的可能性,分析其对用户行为和心理的影响,以期为合理使用AI提供理论依据。

研究方法与发现:

本研究采用文献综述和案例分析相结合的方法,对ChatGPT等AI对话模型的使用场景和用户反馈进行深入分析。研究发现,AI对话模型的即时性和交互性可能引发用户的过度依赖,尤其是在信息获取和情感支持方面。此外,研究还发现,用户对AI的过度依赖可能导致对人类社交互动的忽视,甚至产生心理上的依赖感。

研究结论:

研究表明,AI对话模型如ChatGPT具有潜在的成瘾性,特别是在长时间使用和高强度依赖的情况下。这种依赖可能对用户的社交能力和心理健康产生负面影响。因此,建议用户在使用AI对话模型时保持适度,同时开发者应考虑设计更合理的使用机制,以减少成瘾风险。

 

2、Error Analysis of Pretrained Language Models (PLMs) in English-to-Arabic Machine Translation

作者:Hend Al-Khalifa, Khaloud Al-Khalefah & Hesham Haroon

DOI:https://doi.org/10.1007/s44230-024-00061-7

研究动机:

随着全球互联性的增强,跨语言交流变得日益重要,尤其是对于使用非拉丁字母脚本的语言,如阿拉伯语。然而,英语与阿拉伯语之间由于结构和脚本差异巨大,机器翻译仍面临独特挑战。尽管预训练语言模型(PLMs)在自然语言处理(NLP)研究中处于前沿,显著提升了机器翻译能力,但它们在英语到阿拉伯语的翻译中仍难以达到高准确性和流畅性。这阻碍了英语和阿拉伯语文化之间的有效沟通与合作。

研究方法与发现:

本研究采用自动评估指标(chrF、BERTScore、COMET)和人工评估(使用MQM框架)来比较Google Translate和五种PLMs(Helsinki、Marefa、Facebook、GPT-3.5-turbo和GPT-4)的翻译表现。研究涵盖了心理学、政治、医学和科学等不同文本领域,以全面评估模型在多样化内容中的翻译能力。结果显示,Google Translate在所有评估的机器翻译系统中表现最为稳健,总错误数最少。而Helsinki的错误数最多,表明其翻译机制存在显著挑战。误译是所有平台上最常见的错误类型,突显了机器翻译中实现准确和上下文相关翻译的复杂性。

表1-MT自动评估结果

表2-不同翻译系统的错误率

图1-机器翻译系统中的翻译错误计数和主要类别的分布

研究结论:

研究表明,尽管预训练语言模型在提升机器翻译质量方面展现出积极成果,但它们在处理阿拉伯语语法和词汇时仍存在局限性。这些模型在翻译复杂句法和词汇时容易出现错误,影响翻译的准确性和流畅性。研究强调了继续研究定制架构、多语言表示、上下文编码和专门模型训练的必要性,以进一步提升英语到阿拉伯语翻译的性能

 

Can ChatGPT Be Addictive-二维码

扫码阅读原文

 

3、The Linguistic Feature Relation Analysis of Premise and Hypothesis for Interpreting Nature Language Inference

作者:Xinyu Chen, Lin Li, Mengjing Zhang & Rui Zhang

DOI:https://doi.org/10.1007/s44230-023-00054-y

研究动机:

自然语言推理(NLI)任务是自然语言处理中的一个重要领域,旨在判断两个句子之间的逻辑关系(如蕴含、矛盾或中性)。然而,现有的NLI模型虽然在性能上取得了显著进展,但其预测过程往往缺乏可解释性。本文旨在引入前提和假设之间的语言特征关系的逐样本分析,探索指导 NLI 建模和解释能力。

研究方法与发现:

本文提出了一种基于多层注意力机制的NLI模型,通过分析前提和假设之间的语言特征关系来增强模型的可解释性。研究者们在SNLI数据集上进行了实验,验证了多层连接机制的有效性。实验结果表明,该模型不仅能够以92.2%的准确率进行预测,还能以更接近人类解释的方式展示其推理过程。通过逐层分析语言特征关系,模型能够更清晰地解释其预测依据。

图1-推理样本过程

图2-多层互联 NLI

图3-每一层的预测准确率(%)结果

研究结论:

本文重点介绍通过添加多层连接机制来解释具有语言特征关系的NLI任务。我们的实证研究表明,语言特征关系可以帮助NLI模型以人类解释的方式解释预测过程。在SNLI数据集上进行的实验结果表明,基于多层注意力的NLI模型可以以92.2%的准确率做出更大的可解释性。在未来的工作中,我们将增加样本的数量,以进一步验证句子对中的语言结构。此外,对于低层、中层和高层捕获的语言特征关系,我们将尝试通过逐层基于提示的训练来做出预测。

 

关于期刊

IMG_256

Human-Centric Intelligent Systems(eISSN:2667-1336)是一本国际化的,经过严格同行评审的开放获取期刊,致力于传播 “以人为中心的智能系统” 中所有相关理论和实际应用的最新研究成果,并提供以人为中心的计算与分析领域的前沿理论和算法见解。为了鼓励科研成果的传播,本刊暂不收取文章处理费。

期刊主编:西南交通大学李天瑞教授与澳大利亚悉尼科技大学徐贯东教授

顾问委员:东京大学教授,日本国家信息研究所所长Masaru Kitsuregawa与伊利诺伊大学芝加哥分校Philip S. Yu教授

 

投稿咨询:

HCIN期刊编辑部

Tel:17320182488

邮箱:hcin@editorialoffice.cn

113c003e8332991ae27dc8f224cb2164

标签: 大语言模型 期刊

SCHOLAT.com 学者网
免责声明 | 关于我们 | 用户反馈
联系我们: