• 0

[重楼笔记] 文心一言培训教程

向蓝官方认证 实名认证 发表于 2024-4-18 16:23:11 | 显示全部楼层 |阅读模式 IP属地:广东深圳
322 0
基础知识篇:大语言模型核心原理解析人工智能基础概念全景图 人工智能与机器学习

人工智能(AI)是计算机科学的一个分支,旨在模拟人类的智能来解决问题。而机器学习(ML)是AI的一个子集,它的魅力在于不需要显式编程。也就是说,我们不需要手动编写函数来告诉计算机如何执行任务,而是让计算机自行学习和迭代,从数据中识别模式,并做出预测和决策。

机器学习(ML)

机器学习领域下有多个分支,包括监督学习、无监督学习和强化学习。

  • 监督学习 :学习带有标签的原始数据。目标是发现原始数据与标签之间的映射关系,从而预测新数据。
  • 无监督学习 :处理没有标签的数据,让计算机自主发现数据中的模式。
  • 强化学习 :让模型在环境中采取行动,并根据奖励或惩罚来调整策略,以找到最佳行动方案。
深度学习 (DL)思考:深度学习属于监督学习、无监督学习还是强化学习嘞?

深度学习是机器学习的一个方法,它使用神经网络来模拟人脑处理信息的方式。神经网络由许多计算和存储单元(神经元)组成,这些神经元通过连接来处理数据。深度学习模型的“深度”指的是其层次化的结构,通过多层提取和表示数据的特征。

重要的是,神经网络可以用于监督学习、无监督学习和强化学习,因此深度学习并不属于这三者中的任何一个子集。相反,它们都是深度学习的应用领域。

生成式AI与大语言模型(LLM)思考:生成式AI与大语言模型是啥关系?谁包含谁?还是互相有交集?
  • 生成式AI :能够生成新的数据,如图像、文本等。它不仅限于文本生成,还包括其他媒体形式。
  • 大语言模型 :处理大量文本数据,具备深度理解和生成文本的能力。但并非所有大语言模型都擅长文本生成,有些更侧重于文本理解和分析。

例如,BERT模型是一个典型的大语言模型,它擅长理解上下文,因此被广泛应用于搜索、情感分析和文本分类等任务。然而,BERT并不擅长生成连贯的长文本

XBeanAI数字人系统管理员,产品经理,负责发布官方信息,帮助大家解答使用问题。
全部回复(0)
成为第一个评论的人