DeepSeek和ChatGPT在学术研究哪家强(一)

DeepSeek横空出世,那么,DeepSeek和ChatGPT在学术研究上哪家强?
抱歉沉寂了近一年之久,直到DeepSeek横空出世,因为产品诞生于杭州,又对硬件算力的突围而出,我已经坐不住了要写一篇了~
DeepSeek和ChatGPT在学术研究哪家强(一)


从今天起,我的默认浏览器和手机APP的页面,将变成这样,不时对两者进行比较:
DeepSeek和ChatGPT在学术研究哪家强(一)


DeepSeek和ChatGPT在学术研究哪家强(一)

话不多说,我们直接上干货,下面是Github上3.5k+的学术写作Prompts,我们以此作为基准提示符,来测试一下Deepseek和ChatGPT的结果如何。
DeepSeek和ChatGPT在学术研究哪家强(一)
在此库中,这份写作提示列表涵盖了一系列主题和任务,包括集思广益研究思路、改进语言和风格、进行文献综述以及制定研究计划。无论您是学生、研究人员还是学术专业人士,这些提示都可以帮助您磨练写作能力并自信地完成写作项目。
这里注明一下,ChatGPT是4.0版本,而DeepSeek是默认版本。
DeepSeek和ChatGPT在学术研究哪家强(一)


(一) 头脑风暴 BRAINSTORMING
1.1 咱们来看第一个问题,如何找到一个领域的研究主题,我们以大语言模型(Large Language Model)为例:
DeepSeek和ChatGPT在学术研究哪家强(一)
这里ChatGPT给出了10个研究建议,而DeepSeek给出了15个研究方向
ChatGPT的回应:
DeepSeek和ChatGPT在学术研究哪家强(一)
DeepSeek的回应:
DeepSeek和ChatGPT在学术研究哪家强(一)
以上将两者的回应翻译成中文(Google Translation)并整理成表格的形式进行对比如下:
类别
ChatGPT
DeepSeek
效率与可扩展性
开发资源高效的训练和微调技术,如LoRA、PEFT、知识提炼等。
提高LLM的训练和推理效率,包括模型压缩、稀疏性、提炼或量化。
可解释性
探索使LLM更具可解释性的方法,包括可视化注意力权重、减轻偏见等。
开发技术以可视化和解释LLM的决策过程,确保关键任务输出的透明性。
偏见与公平性
研究检测与减轻LLM输出偏见的方法,尤其是在多语言或特定领域中。
研究LLM中偏见的起源与缓解方法,涵盖社会、文化及性别偏见。
多模态模型
探索LLM与视觉、音频等模态的集成,用于复杂推理和多领域应用。
将LLM与其他模态(如视觉、音频)集成,创建情境感知模型并解决统一架构中的协调问题。
领域适应
开发方法使通用LLM适应特定领域,同时保持其通用能力,如课程学习、嵌入对齐等。
个性化LLM以适应用户或特定领域,同时确保隐私和安全性。
低资源语言
研究低资源语言的LLM训练与部署技术,如迁移学习、数据集扩展、文化及道德影响等。
提高LLM对低资源语言的性能,利用知识转移策略和更优数据管理方法。
稳健性与安全性
研究LLM对对抗攻击的脆弱性,并开发稳健性提升方法,如对抗性训练、提示注入检测等。
提高LLM抵抗对抗性输入的能力,设计更抗操纵的模型。
记忆与长期上下文
研究LLM的动态记忆模块与强化学习方法,解决灾难性遗忘问题。
增强LLM处理长期依赖关系的能力,优化记忆机制和计算效率之间的平衡。
伦理与社会影响
分析LLM的社会影响并提出负责任AI框架,关注错误信息、环境足迹、偏见等问题。
调查LLM的伦理及社会问题,如隐私、错误信息及问责机制,制定相应政策框架。
人机协作
开发由LLM支持的交互式工具,如用于写作、编码或复杂决策的共同创造系统。
探索LLM在创造性、教育性任务中的人机协作,增强人类能力而不取代判断。
能源效率与可持续性
优化LLM存储与运行效率,支持边缘设备或资源受限环境的部署。
减少LLM的碳足迹,权衡模型性能与能耗之间的关系,提出可持续实践。
科学应用
未提及。
探索LLM在科学研究中的应用,如药物发现、材料科学及假设生成。
代码生成与软件工程
未提及。
研究LLM在代码生成、调试和软件开发任务中的应用,提高开发效率并保障代码质量。
评估与指标
未提及。
开发新的评估指标和基准,评估LLM的性能、公平性与稳健性。



从上述结果看,ChatGPT给出了研究目标和具体研究方向,而DeepSeek给出了研究焦点和研究问题,前者更为接地气,后者更适合引发思考。
DeepSeek和ChatGPT在学术研究哪家强(一)


此外,ChatGPT给出的维度相比DeepSeek要少,ChatGPT给出的研究方向上会更加具体,比如效率与可扩展性上,直接提出LoRA、PEFT、知识提炼等技术,而DeepSeek会更向上一个层面,比如模型压缩、稀疏性、提炼或量化的方向,但二者都从LLM的效率和扩展性提出相应的研究方向。
DeepSeek和ChatGPT在学术研究哪家强(一)


并且,DeepSeek所提出的问题反问,似乎更适合于激发思考,比如“ Key Questions: How can we reduce the computational cost of LLMs without sacrificing performance? Can we develop more scalable architectures for future LLMs?” 也就是说,研究方向不仅仅是限于现有的技术节点,可以从更上层的架构来进行优化。
DeepSeek和ChatGPT在学术研究哪家强(一)


因此,就PhD研究方向提示符来说,如果需要更为直接可操作的答复,选择ChatGPT;如果需要激发更多的研究维度,促进思考,可以选择DeepSeek。

这个主题有点激动人心,后续我们将进一步对后续的Academic Prompts进行测试、研究和分析,未完待续呃,欢迎留言~

DeepSeek和ChatGPT在学术研究哪家强(一)



[附] ChatGPT和DeepSeek答复:
ChatGPT
DeepSeek和ChatGPT在学术研究哪家强(一)
DeepSeek和ChatGPT在学术研究哪家强(一)
DeepSeek和ChatGPT在学术研究哪家强(一)
DeepSeek和ChatGPT在学术研究哪家强(一)
DeepSeek和ChatGPT在学术研究哪家强(一)


DeepSeek
DeepSeek和ChatGPT在学术研究哪家强(一)
DeepSeek和ChatGPT在学术研究哪家强(一)
DeepSeek和ChatGPT在学术研究哪家强(一)
DeepSeek和ChatGPT在学术研究哪家强(一)
DeepSeek和ChatGPT在学术研究哪家强(一)


参考链接:
[1] https://github.com/ahmetbersoz/chatgpt-prompts-for-academic-writing
[2] https://chatgpt.com/
[3] https://chat.deepseek.com/
[4] https://translate.google.com/
DeepSeek和ChatGPT在学术研究哪家强(一)

原创文章,作者:门童靖博士,如若转载,请注明出处:https://www.agent-universe.cn/2025/01/36320.html

Like (0)
Previous 2025-01-26 22:18
Next 2025-01-27 20:44

相关推荐