AI 在研究中的应用:机遇与挑战
2 月 29 日在柏林举行的 MQIC 2024 上关于 AI 在(定性)研究中的机遇和挑战的研讨会的文档
参与者
布朗大学 Karen Andes
博士教授
MAXQDA 首席产品经理 Julia Gerson
马尔堡菲利普斯大学名誉教授 Udo Kuckartz
博士
Stefan Rädiker
博士 research-coaching.de 研究顾问
主持人
Andreas Müller
muellermixedmethods.com 研究顾问
介绍
在今年的 MAXQDA 国际会议 (MQIC) 上,由四位参与者组成的互动研讨会讨论了 AI 在研究中的机遇和挑战,更具体地说是 AI 在定性研究中。讨论还纳入了观众的问题和评论。
在活动开始之前,四名参与者被指示准备陈述,以回答以下三个关键问题:
- 在使用 AI 时,您在研究和工作领域看到了哪些机会?
- 由于 AI,您在研究和工作领域面临哪些挑战?
- 关于在 MAXQDA 中实施 AI Assist:
– 我们如何理解 AI Assist 产生的分析输出?或者
– 分析数据时工作流程如何变化?– 现在和未来。
为了在视觉上支持他们的观点,参与者为每个问题创建或选择与他们陈述一致的图像。研讨会的讨论遵循每个关键问题的结构化格式,从每个参与者在 90-120 秒的时间内展示他们的形象并阐明他们的观点开始。随后,参与者对彼此的图像和主张发表评论,随后向观众开放。
本文档总结了研讨会期间提出的关键论点、见解和讨论要点,围绕这三个问题进行了组织,并附有一些结论。请注意,讨论中表达的观点并不一定反映小组成员的观点。
1) 人工智能在研究中的机遇
在使用 AI 时,您在研究和工作领域看到了哪些机会?
Stefan Rädiker
AI 在研究中的机遇之一是新的有前途的分析方法的出现。一些研究人员已经认为,AI 辅助摘要,尤其是与数据交互将比当前的数据编码方法更重要。我认为这可能适用于主题编码,因为我们看到已经可以跳过编码过程来识别和总结数据中的主题。
在考虑展示带有墓碑的图像和主题编码的死亡日期之后,我选择了退休这个不那么挑衅性的类比,因为我仍然相信编码和主题编码的思想会活着,它们拥有悠久而当之无愧的传统是有原因的。然而,我看到了主题编码将转化为进行面向主题分析的新方法的机会。
Karen Andes
我给你带来了一张天真的教授的照片。当然,当我被邀请参加小组时,我做的第一件事是,我让 ChatGPT 为我设计一个演讲,我认为它涉及归纳和演绎编码非常有趣,但我不会给你这个。起初我很怀疑,我真的说实话。但是,当我看到它是如何在 MAXQDA 中实现的时,我对它提供的机会感到非常兴奋,尤其是在学生方面。我一直在与那些想知道自己是否做对以及他们是否想要布置作业的学生一起工作。当我让他们做一个主题分析时,他们想看看以前做过一次的人的作业是什么样子的。我看到现在可能有机会让学生们把自己与这个目标对立起来,这个研究伙伴可能不会完全按照我们的意愿做所有事情,但会给他们一个出发点,给他们一个比较点。这个,我稍后会更多地讨论这个问题,这实际上可能会模仿团队合作。
Julia Gerson
我的图像将 AI 描绘成学习环境中的 24/7 全天候帮助。它显示了一个学生在宿舍里用笔记本电脑工作,桌子上放着一个雪球。雪球包含一个图形,象征着知识渊博的导游或老师,说明了 AI 的作用。该 AI 指南可能不是学生当前正在研究的特定主题的专家,但它拥有关于每个可以想象的主题的一般教科书知识,包括研究和 MAXQDA 相关主题。
学生可以要求 AI 解释扎根理论,就像他们在和一个 10 岁的孩子说话一样。这导致了一个有趣的答案,其中包括乐高积木和成为一名侦探,试图将积木组装在一起并构建不同的模型。
作为产品经理,我还利用 AI 的这种能力,在计划会议或演讲或获得有关设计模型的反馈时接收一般提示。
虽然 AI 可能无法取代专业知识,但其广泛的知识和持续可用性提供了大量支持。AI 实际应用的一个例子是在 MAXQDA 手册中,其中聊天机器人提供即时帮助,展示了 AI 在提供即时支持方面的价值。
总之,AI 在教育和专业环境中都是一个重要的工具,它可以持续提供有价值的反馈、回答问题和解释概念。
Udo Kuckartz
我带来的第一张图片展示了社会研究的可能未来。一个研究团队正在工作,由 AI 提供支持,图中由一个类似人类的机器人表示。人工智能为社会科学研究提供了巨大的机会,它可以提高效率和生产力,并自动化研究过程中的许多任务,例如转录。AI 还可以帮助写作和演示。研究人员从转录和编码等操作任务中解脱出来。AI 使我们能够专注于深入分析和回答我们的研究问题。一般来说,数据分析将变得更加动态和互动。
今天的情况让我想起了 1980 年代。1984 年,也就是 40 年前,我开始探索计算机辅助分析定性数据的可能性,并开发合适的软件。在我看来,很明显,软件的使用将极大地改变定性数据分析的过程。当时,对计算机的使用存在强烈的抵制,例如来自扎根理论的合著者巴尼·格拉泽 (Barney Glaser)。QDA 软件成为定性数据分析的标准需要相对较长的时间。AI 可能会发生类似的事情。也许今天一切都更快了。无论如何,我的结论是 AI 工具为改进我们的研究技术提供了绝佳的机会。
小组成员讨论
- 在研究中使用 AI Assist 可以节省时间,但关键问题是我们如何利用节省的时间。快速分析可能对某些任务和领域有所帮助,例如评估和战略远见,但使用 AI 来提高效率也使我们能够跳过转录等繁琐的任务,继续执行更多的分析任务。它还使我们能够接受 AI 结果的挑战并加深我们的分析。(斯特凡·雷迪克)
- 不应将 AI Assist 视为人类。它具有特定的功能,例如巨大的文本记忆,可以在几秒钟内阅读和“理解”我写的一本书——而我作为一个人,无法记住我写过的所有细节。这让我可以询问有关我自己的书的问题。(斯特凡·雷迪克)
- 教师和学生都对 AI Assist 有疑问,能够在 MAXQDA 中使用 AI Assist 完成发现过程以评估其效果非常重要。(朱莉娅·格森、凯伦·安第斯)
- 在社会学家乌尔里希·贝克 (Ulrich Beck) 的理论中,现代性的第二阶段始于 1970 年代,以文化和私人生活的合理化为标志。这导致了一种文化,人们 “评分 ”潜在的伴侣并进行比较,导致频繁离婚和对个人主义的关注。现在有了 AI,我们可能正在进入现代性的第三个阶段,在这个阶段,个人越来越孤立,有更多的空闲时间。但是他们用什么来打发时间呢?通过观看 Netflix 等娱乐活动?(乌多·库卡茨)
- 生成式 AI 在创建内容(尤其是图像)时有时会产生意想不到的结果。这些惊喜可以充当“灯泡”时刻,有助于澄清研究问题并揭示新的见解。(斯特凡·雷迪克)
与观众讨论
- AI 生成的图像可能会使刻板印象和偏见永久化,例如描绘女学生向男助理寻求帮助。这些表现会影响我们对社会的看法。但是 AI 生成的图像中的明显偏见可能只是反映了特定的用户提示,而不是 AI 系统内部的固有偏见(就像 Karen Andes 要求一位带问号的女教授一样)。(观众 Karen Andes)
- 尽管 AI 可能存在偏见,但人类行为也存在类似的偏见。生成式 AI 的有前途的选择是,我们可以来回切换,例如,在提示创建图像时——通过使用这种技术,我们还在塑造偏见方面发挥作用。(观众)
- AI 在研究中扮演着助手的角色,负责为研究人员承担繁琐的任务。(观众)
- 我们是否需要研究如何尊重 AI 作为拥有权利和(工作)法规的实体,以确保尊重 AI?如果 AI 将来要成立工会呢?(观众)
- AI 不应被羞辱,也不应被视为因其算法性质而拥有权利。ChatGPT 是一种用于预测单词和模拟人类交互的技术工具。我们需要谨慎对待过度人性化的 AI,并强调了解其局限性的重要性。(安德烈亚斯·穆勒)
- 作为定性研究的教师,我们需要思考如何利用人工智能来培养下一代定性研究人员的批判性思维和自主学习。例如,我们可以创建练习,鼓励学生以有意义的方式与 AI 互动,并帮助他们意识到 AI 没有同理心或觉得需要(就像我们一样)回答问题。(观众 Karen Andes)
- 当 AI 为我们转录时,我们可能会丢失与数据的一些重要交互。因此,我们自己转录部分数据可能会有所帮助。但是,检查成绩单的准确性,尤其是那些我们没有自己进行的采访,有助于我们熟悉数据并开始分析它。(听众 Stefan Rädiker)
2) AI 在研究中的挑战
由于 AI,您在研究和工作领域面临哪些挑战?
Julia Gerson
这张图片是从我作为 MAXQDA 产品经理的角度以及自 OpenAI 发布 ChatGPT 以来我们在过去一年中面临的挑战出发的。
在这张图片中,您可以看到一条道路,它说明了 MAXQDA 路线图,这是我们在软件开发中用来规划我们下一步或将来要开发的功能的术语。在路边,您可以看到两组用户。在此图像中,他们是大小相等的组,但实际上 “热情” 组应该更大。两组人都在表达他们的观点,其中一组人举着积极的“是”手势。该小组希望在 MAXQDA 中使用 AI 功能,并希望尽快提供这些功能。
另一方面,也有一群用户持怀疑和担忧的态度。他们举着“不”和“危险”的标志。他们向我们发送有关隐私的问题。他们不希望 AI 干扰他们的研究。他们正在为无法购买包含 AI 云工具的软件的组织工作。
我们必须应对的挑战是倾听和理解这两个用户群体,并找到满足这两个需求的解决方案。例如,通过将 AI Assist 作为可选附加组件实施并确保满足最高安全标准。
您不仅可以将视野扩展到 MAXQDA,还可以扩展到一般的定性研究,其中您对 AI 在研究中的使用也有两种类型的声音和反应。我很想知道该方法或研究社区将如何解决相同的问题。
Udo Kuckartz
这张图片不仅涉及我自己研究的挑战,还涉及影响我们所有人的一般挑战。与第一张图像一样,我使用 AI 工具 Midjourney 创建了此图像。我们在照片中看到的是什么——或者我们认为我们在这里看到了什么?左边是一个人,一个研究员。在中间,AI 再次由机器人表示。右边的第三个人一开始可能会让我们感到困惑。是人类还是机器人?头部是人,身体是机器人。该图像旨在说明我们作为科学家面临的两个挑战。
第一个挑战涉及 AI 与人类之间的交互。AI 说“问我”,但我们应该问什么问题,我们应该如何表述我们的问题?不同的问题导致不同的答案。提出正确的问题正在成为一门新的科学学科。
第二个挑战是能够区分人类和 AI。例如,AI 撰写的研究提案可能会由 AI 进行评估。这清楚地表明,我们需要规定 AI 可以做什么和不能做什么。上周,欧盟朝着这个方向迈出了第一步:经过三年的谈判,欧洲议会通过了一项旨在建立明确规则的人工智能法律。
Karen Andes
生成这张图片对我来说是一个重大挑战,因为我的目标是描绘一个多元化的研究团队,反映我在多元化团队中的工作性质。然而,最初的结果令人失望,生成的图像缺乏多样性。尽管我做出了努力,但第一次迭代主要以白人为主角,这引发了人们对代表性的担忧。
为了创建一个包含两个同伴和一个导师的场景,我必须明确指定导师的年龄,以便将他们与同伴区分开来。有趣的是,当我要求更传统的服装时,由于同龄人最初被描绘成海滩上穿着短裤,系统将其解释为纱丽和来自世界各地不同文化的服装。只有这样,生成的图像才包括有色人种。
这一经历凸显了社会许多部门研究中持续存在的代表性不足的问题。当我们与这些系统互动时,我们必须谨慎行事,以避免延续和重申这些差异。至关重要的是,我们要积极努力确保我们创建的图像和我们进行的研究中的多样性。
Stefan Rädiker
我的照片提出了关于挑战的两个关键问题:
首先,谁在驾驶研究飞机?在我的图像中,只有一个孤独的 AI Assist 机器人在驾驶飞机。甚至连副驾驶座位也是空的,这强烈地提醒了 AI 的孤独作用。有趣的是,Microsoft 将几种 AI 工具称为“Copilot”,但我认为这不是一个令人信服的术语,至少对于定性研究来说,它太短了。MAXQDA 中的 AI 是一个助手,可以执行我要求它执行的任务。在研究中,人工智能是一种增强、助手或工具,可以协助完成特定任务,但不指导研究的进程。它不控制方向或目的地。实际上,在定性研究中,我们通常不知道我们要去哪个目的地,有时它更像是一次冒险旅行。
这就引出了第二个问题,“定性研究中不可或缺的人为因素是什么?在电影《萨利》中,汤姆·汉克斯 (Tom Hanks) 于 2009 年在哈德逊河上降落了一架空客飞机。当面对模拟器结果显示他可能降落在附近的机场时,他回答说:“你已经把人为因素从驾驶舱里拿走了。这凸显了人类研究人员在定性研究中不可替代的作用。尽管 AI 拥有庞大的知识库,但研究人员带来了宝贵的实际经验,例如进行第一手访谈或亲自接触主题,例如生孩子。人类经验对于定性研究至关重要。
小组成员讨论
- 在 Stefan Rädiker 提到的电影《Sully》中,飞行员被说成是无罪的,但重要的是要注意到,与经验丰富的人类飞行员相比,算法和模拟的可靠性很高,这凸显了人们对合理化的信任度越来越高,而不是人类判断。(乌多·库卡茨)
- 当研究咨询客户面对人类专家和 AI 生成的答案时,可能会导致具有挑战性的情况。想象一下,一个客户写道:“我有这三个问题,ChatGPT 提供了这些答案。你对他们有什么看法?如果顾问同意 AI,客户可能会质疑顾问服务的必要性。另一方面,不同意 AI 可能会引起刺激,迫使顾问反对机器。尽管面临这一挑战,“两个头总比一个好”这句格言仍然适用。(安德烈亚斯·穆勒)
- AI 作为第二声音在人类偏见和刻板印象可能导致歧视的情况下也会有所帮助。例如,在医生经常低估女性疼痛的医疗情况下,AI 可以提供不同的、可能公正的意见。这凸显了在人为因素可能具有歧视性的情况下使用 AI 的潜在价值。(朱莉娅·格森)
- 我们需要区分不同类型的 AI,我们需要理解和学习什么样的问题适合什么样的模型。例如,在知识复制方面,我们必须小心 GPT 模型,尤其是书籍参考。(乌多·库卡茨)
与观众讨论
- 有偏见的论点对人类来说(更)是正确的;他们可能会陷入自己的头脑中,并且在吸收新信息方面可能非常糟糕。(观众)
- 我们不应该将未经训练的 AI 与受过方法训练的研究人员进行比较。目标应该是训练 AI 遵循方法程序、反身性和同理心,类似于人类的训练方式,以便进行公平的比较。(观众)
- 有人担心,在定性研究中使用 AI 可能会使研究人员与他们在该领域收集数据时的感受和体验脱节。这种情感联系和研究人员的直觉很有价值。(观众)
- 每个研究人员都是独一无二的,由他们自己的背景、经历和偏见塑造。AI 只能根据研究人员的推理和输入进行机械性的协助。研究人员的解释方法和理论敏感性仍然是关键。(观众)
- 将数据上传到 AI 服务器进行分析时,数据安全和隐私是一个主要问题。研究人员有责任保护其研究参与者的安全和机密性。他们需要开发新的技术能力,以了解 AI 如何处理数据,以确保安全性和合规性。OpenAI 政策的变化已经解决了几个数据保护问题。(观众&Stefan Rädiker&Udo Kuckartz)
- 由于过于依赖 AI 生成的摘要和分析,存在忽视或低估人类自然智能的风险。然而,其他人则认为 AI 正在展示超越个人研究人员的能力。(观众 Udo Kuckartz)
- 研究人员的交叉身份塑造了他们独特的视角,这在研究与自己不同的人群时尤其有价值。AI 可能无法复制不同研究团队提供的见解。(凯伦·安第斯)
- 虽然考虑长期影响很重要,但目前的重点应该是如何适当地使用 AI 来增强和改进特定方法中的定性研究的具体示例。什么是人类生成与 AI 生成的透明度至关重要。(观众)
- 研究中的 AI 可以被视为“外骨骼”——一种增强研究人员能力的工具,同时仍然让他们像飞行员一样处于控制之中。需要更相关、更接地气的示例来帮助定性研究人员了解正确使用 AI 的机会和注意事项。(观众)
3) 在 MAXQDA 中实施 AI Assist
关于在 MAXQDA 中实施 AI Assist:
– 我们如何理解 AI Assist 生成的分析输出?或者
– 分析数据时工作流程如何变化?– 现在和未来
Udo Kuckartz
我将重点介绍问题的第二部分,即研究过程将如何变化。图片来自 Stefan Rädiker 和我写的《定性内容分析》一书(由 Sage 出版,2023 年)。它显示了定性内容分析方法的不同阶段:从数据的初始读取和探索到类别的开发和数据编码,再到结果的分析和呈现。
它是决定分析过程的方法,即使在 AI 时代也基本保持不变,但我们必须找出每个阶段如何明智和负责任地使用 AI。例如,我们必须问:“AI 如何帮助我们创建类别?”或“AI 在数据编码中可以扮演什么角色?我们将看到 AI 可以做一些事情做得很好,而另一些事情可以做得不太好。澄清这些问题将导致方法创新,包括在 MAXQDA 中实施。
适用于定性内容分析的内容也适用于其他已建立的方法,例如扎根理论、话语分析等。例如,在扎根理论中,我们可以询问 AI 如何协助初始编码或理论采样。
Stefan Rädiker
有趣的是,作为 Udo,我在不使用 AI 的情况下准备了一张图像,并且还专注于研究方法。它显示了 AI Assist 生成的子代码建议,并且它们被方法教科书所包围。
我当时正在教一班正在学习分析采访的本科生。例如,我们决定允许他们使用 AI Assist 来创建子代码和汇总数据。但我们必须确保他们了解发生了什么,因此我们要求他们写下他们的结果与 AI Assist 结果有何不同。我们希望确保他们可以在没有 AI Assist 的情况下自行完成此操作,并且他们可以反映 AI Assist 的结果。
简而言之:我们需要学习和了解研究方法——以我印象中的书籍为代表。事实上,随着 AI 的所有可能性触手可及,我认为它们比以往任何时候都更加重要。这意味着阅读和练习分析方法,以理解、评估和评估、改进、纠正、丢弃或重新请求 AI Assist 的输出。
Julia Gerson
在创建此图像时,我想专注于数据收集的潜在工作流程更改。你可以看到两组研究人员在非洲的热带稀树草原上,他们显然正在收集动物的数据。这两个群体正在使用不同的方法。
一组研究人员在地面上,紧挨着动物,触摸和测量它们。因此,他们非常接近他们的数据,他们可以感觉到和闻到他们的受试者。这样,他们将获取有关少量动物的大量详细信息。
另一组人乘坐飞机飞越稀树草原,从高处观察动物。在我的示例中,飞机象征着 AI,它使用户能够一次查看更多的动物。这些研究人员可以检测地面用户看不到的信息,例如,动物的运动模式、干燥的区域和被洪水淹没的区域。
飞机上的研究人员与他们的研究对象没有像地面上的研究人员那样直接互动。尽管如此,这两种类型的数据都有价值——我不会将它们相互对比,而是会问它们如何组合?不同的问题需要不同的数据,因此研究人员可以决定何时使用哪种工具以及哪种方法(或方法组合)更适合哪些研究问题。
在创建这张图片时,我犹豫了一下这张图片是否应该包括飞机上的人类。如果你让人类坐在飞机上飞越陆地,他们能够用眼睛和大脑处理的细节量是有限的,而且会随着飞机的高度而减少。对于 AI,情况就不同了。AI 可以在陆地上高空飞行,收集大量数据,并且仍然会注意到大量的细节。因此,在 AI 的帮助下,研究人员可以收集大量数据——但我们如何让人类大脑可以访问这些数据呢?
Karen Andes
我想强调的是,到目前为止,我们的对话非常富有成效。其中 AI 是我们研究的支柱之一,三角测量的概念特别有趣。它可以是一种强大的验证和支持形式。我创作了一张图片来说明这个概念,灵感来自我自己对 AI 在我们的项目中是否应该被视为同行或导师的思考。随着 AI 在方法论方面的能力不断扩大,我们可能会越来越多地将其视为指导人物。例如,在 MAXQDA 中,您已经可以参与对话并寻求指导,展示该领域的持续发展。但是,我也相信 AI 可以有效地集成到以学生为中心的学习过程中。前面讨论的教学方法引起了我的共鸣——让学生生成自己的作品,并以小组形式合作审查彼此的贡献。在这种情况下,将 AI 作为资源不会与我现有的教学方法有很大的不同,而是一个丰富的补充。
与观众讨论
- 一个问题是,我们是否期望人工智能在研究中复制我们的确切方法,或者我们是否将其视为一种三角测量形式——从没有相同感受和偏见的人那里获得意见。这与我们希望 AI 在定性研究中扮演什么角色的更广泛问题有关。例如,可以引导 AI 并说“作为研究人员”或“作为导师”。(Andreas Müller & Udo Kuckartz)
- 我们需要更多的时间和实践经验来弄清楚如何最好地使用 AI 助手并指导学生有意义地使用它们。学生可能会变得懒惰,不对他们的数据和方法进行批判性思考。(观众)
- 人工智能和机器人技术是否将人类从枯燥的体力劳动中解放出来,让我们可以专注于思考?即使我们有能力进行复杂的思考,我们也可能对此感到懒惰,尤其是学习研究的学生可能对此并不感兴趣。(观众)
- 另一个问题是,与定性研究的前软件时代相比,MAXQDA 中的 AI Assist 等技术是否真的提高了研究人员的效率,并使他们能够更好地利用时间?根据某些标准,例如样本量、与数据的接近程度以及定性数据分析软件(QDA 软件)实现的透明度,定性研究在过去 20 年中变得更加高效并获得了很大的质量。但是,这取决于所使用的标准。归根结底,与任何技术一样,用户如何利用 AI 节省的时间取决于用户。(Andreas Müller & Udo Kuckartz)
- 几十年前推出的 QDA 软件改变了研究人员的工作方式,使流程更加高效,并允许进行更深入的分析。使用软件获得的效率带来了更高质量的研究,因为它使研究人员能够轻松组合文本片段并探索使用纸质方法难以或不可能的新想法。(观众)
- 随着技术的进步,定性研究的标准可能会提高,类似于家用技术导致清洁标准和密集母职的提高。这可能会导致人为干预和繁重工作之间的区别越来越大,由于标准的提高,后者永远不会结束。(观众)
- 在私营部门,人工智能在定性研究中采用可能是由于有可能提高效率和投资回报,而这可能并不总是能带来积极的结果。(观众)
- 在未来,也许在 20 年后,人工智能可能会变得足够先进,可以处理从数据输入到回答研究问题的整个研究过程——研究人员将始终控制整个过程的想法可能是一种幻觉。(观众)
- AI 的快速发展使得很难预测 5-10 年后的定性研究会是什么样子。MAXQDA 创建了一个 AI 实验室来研究新的技术可能性,但他们也与方法社区协商,以确保任何变化都符合不断发展的研究标准并保持透明度。(朱莉娅·格森)
- 虽然机遇和挑战并存,但我们应该以快乐和乐观的态度拥抱人工智能,认识到我们生活在这样一个有趣的时代,并对我们作为定性研究人员在未来仍然发挥作用保持乐观。(乌多·库卡茨)
4) 结束语
以下评论不是研讨会的一部分;他们的目的是总结上面介绍的文档。
MQIC 2024 关于人工智能在研究中的机遇和挑战的研讨会为讨论人工智能时代快速发展的定性研究格局提供了一个发人深省的平台。小组成员和听众就将 AI Assist 等 AI 工具集成到研究过程中的潜在好处和缺点提出了关键点。虽然 AI 无疑可以提高效率、节省时间并为数据分析提供新的视角,但必须始终注意人类研究人员带来的独特价值,例如他们的真实世界经验、与主题的情感联系以及驾驭复杂的道德和方法考虑的能力。
随着 AI 世界继续以前所未有的速度发展,很明显,定性研究人员必须适应和发展,以保持其相关性并确保其工作的完整性。不断引入新功能,例如在我们编译本文档时能够在 MAXQDA 中与文档、访谈或论文聊天,进一步强调了 AI 在重塑我们进行定性研究方式方面的变革潜力。然而,至关重要的是要以批判的眼光看待这些发展,参与关于人工智能工具的适当使用、透明度的重要性以及开发新能力以有效利用这些技术的必要性,同时维护定性调查的核心原则的必要性。
当我们在这个未知的领域中航行时,必须在研究人员、软件开发人员和更广泛的方法社区之间培养协作精神和公开对话。通过共同努力制定指导方针、分享最佳实践并探索将 AI 整合到定性研究中的创新方法,我们可以利用这些工具的力量来增强我们对复杂社会现象的理解,同时保持塑造该领域的丰富传统和价值观。归根结底,这项努力的成功将取决于我们能否在拥抱人工智能带来的机遇和保持对定性研究核心的人为因素的承诺之间取得平衡。
本文档由 AI 支持的 Stefan Rädiker 编译。2024 年 5 月
将此博客文章下载为 PDF 文档:下载博文 (PDF)
引文(APA 格式):
AI in Research:机遇与挑战。(2024 年 2 月 29 日)。[研讨会]。MAXQDA 国际会议 (MQIC),德国柏林。https://www.maxqda.com/blogpost/ai-in-research-opportunities-and-challenges引用本文档时,请尽可能将声明归属于每个声明下方指定的人员。