数学建模与人工智能
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于

概率预测之NGBoost(Natural Gradient Boosting)回归和分位数(Quantile Regression)回归

@[TOC](概率预测之NGBoost(Natural Gradient Boosting)回归和线性分位数回归) 概率预测是一种预测方法,它不仅提供一个具体的预测值(如点预测),还提供预测值的概率分布或置信区间。这种方法能够更好地捕捉预测的不确定性,适用于需要了解预测结果可靠性的场景。 NGBoostNGBoost(Natural Gradient Boosting)是一个用于提升树的分位数回
2026-01-05
机器学习
#机器学习 #NGBoost #概率预测 #分位数回归 #回归

机器学习面试笔试知识点之非监督学习-K 均值聚类、高斯混合模型(GMM)、自组织映射神经网络(SOM)

@[TOC](机器学习面试笔试知识点之非监督学习-K 均值聚类、高斯混合模型GMM、自组织映射神经网络SOM) 微信公众号:数学建模与人工智能1. 聚类算法都是无监督学习吗?什么是聚类算法?聚类是一种机器学习技术,它涉及到数据点的分组。给定一组数据点,我们可以使用聚类算法将每个数据点划分为一个特定的组。理论上,同一组中的数据点应该具有相似的属性和/或特征,而不同组中的数据点应该具有高度
2026-01-04
机器学习
#机器学习 #面试 #K-Means #高斯混合模型 #GMM #自组织映射 #SOM

机器学习面试笔试知识点之K近邻算法(KNN)、最大期望算法(EM)

@TOC 微信公众号:数学建模与人工智能一、K近邻算法(KNN)(监督学习算法)1. 什么是KNN1.1 KNN的通俗解释何谓K近邻算法,即K-Nearest Neighbor algorithm,简称KNN算法,单从名字来猜想,可以简单粗暴的认为是:K个最近的邻居,当K=1时,算法便成了最近邻算法,即寻找最近的那个邻居。用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输
2026-01-04
机器学习
#机器学习 #面试 #KNN #EM算法 #最大期望

机器学习面试笔试知识点-贝叶斯网络(Bayesian Network) 、马尔科夫(Markov) 和主题模型(T M)

@[TOC](机器学习面试笔试知识点-贝叶斯网络Bayesian Network、马尔科夫Markov和主题模型T M) 微信公众号:数学建模与人工智能一、贝叶斯网络(Bayesian Network)1.对概率图模型的理解概率图模型是用图来表示变量概率依赖关系的理论,结合概率论与图论的知识,利用图来表示与模型有关的变量的联合概率分布。对于一个实际问题,我们希望能够挖掘隐含在数据中的知识。概率图
2026-01-04
机器学习
#机器学习 #面试 #贝叶斯网络 #马尔科夫 #主题模型

机器学习面试笔试知识点-线性回归、逻辑回归(Logistics Regression)和支持向量机(SVM)

@[TOC](机器学习面试笔试知识点-线性回归、逻辑回归Logistics Regression和支持向量机SVM) 微信公众号:数学建模与人工智能一、线性回归1.线性回归的假设函数 2.线性回归的损失函数(Loss Function)MSE(均方误差) 通过梯度下降法或正规方程求出使得代价函数最小的参数 两者区别 3.简述岭回归与Lasso回归以及使用场景目的 本质:约束(限制)要优化的参
2026-01-04
机器学习
#机器学习 #面试 #线性回归 #逻辑回归 #支持向量机 #SVM

机器学习面试笔试知识点-决策树、随机森林、梯度提升决策树(GBDT)、XGBoost、LightGBM、CatBoost

@TOC 微信公众号:数学建模与人工智能一、决策树(Desision Tree)1.一棵决策树的生成过程分为以下3个部分 特征选择:指从训练数据中众多的特征中选择一个特征作为当前节点的分裂标准,如何选择特征有着很多不同量化评估标准,从而衍生出不同的决策树算法。 决策树生成:根据选择的特征评估标准,从上至下递归地生成子节点,直到数据集不可分则停止决策树生长。 剪枝:决策树容易过拟合,一般需要剪枝,
2026-01-04
机器学习
#机器学习 #CatBoost #面试 #决策树 #随机森林 #GBDT #XGBoost #LightGBM

机器学习面试笔试之特征工程、优化方法、降维、模型评估

@TOC 微信公众号:数学建模与人工智能一、特征工程有哪些?特征工程,顾名思义,是对原始数据进行一系列工程处理,将其提炼为特征,作为输入供算法和模型使用。从本质上来讲,特征工程是一个表示和展现数据的过程。在实际工作中,特征工程旨在去除原始数据中的杂质和冗余,设计更高效的特征以刻画求解的问题与预测模型之间的关系。主要讨论以下两种常用的数据类型。 结构化数据。结构化数据类型可以看作关系型数据库的一
2026-01-04
机器学习
#机器学习 #面试 #特征工程 #降维 #模型评估 #优化方法

机器学习笔试面试之图像数据不足时的处理方法、检验方法、不均衡样本集的重采样、数据集分布是否一致

@TOC 微信公众号:数学建模与人工智能一、图像数据不足时的处理方法1.在图像分类任务中,训练数据不足会带来什么问题?如何缓解数据量不足带来的问题?回答1图像分类任务上,训练数据不足带来的问题主要表现在过拟合方面,即模型在训练样本上的效果可能不错,但在测试集上的泛化效果不佳。对应的处理方法大致也可以分两类:一是基于模型的方法,主要是采用降低过拟合风险的措施,包括简化模型(如将非线性模型简化为线性
2026-01-04
机器学习
#机器学习 #面试 #数据增强 #不均衡样本 #重采样 #数据集分布

数据科学:Scipy、Scikit-Learn笔记

数据科学:Numpy、Pandas笔记 数据科学:Matplotlib、Seaborn笔记 超参数调优:网格搜索,贝叶斯优化(optuna)详解XGBoost原生接口和Sklearn接口参数详解LightGBM原生接口和Sklearn接口参数详解@TOC cvxpy123456789101112131415161718192021222324252627282930313233343536373
2026-01-04
数据科学
#笔记 #数据科学 #Scikit-Learn #Scipy

数据科学:Numpy、Pandas笔记

数据科学:Matplotlib、Seaborn笔记 数据科学:Scipy、Scikit-Learn笔记@TOC 一、Numpynumpy.ndarray:n维数组 在numpy中以np.nan表示缺失值,它是一个浮点数。 np.randomnp.random.randint用于生成指定范围内的随机整数。以下是该函数的基本用法:参数: low: 随机数的最小值(包含)。 high: 随机数的最大
2026-01-04
数据科学
#笔记 #数据科学 #NumPy #Pandas

数据科学:Matplotlib、Seaborn笔记

数据科学:Numpy、Pandas 数据科学:Matplotlib、Seaborn笔记@TOC 三、MatplotlibFigure的组成 Figure顶层级:整个图表的容器,可以包含一个或多个 Axes 对象。功能:设置图表的整体属性,如大小、分辨率、背景颜色等。方法:如 add_subplot、add_axes 用于添加子图,savefig 用于保存图表等。 Axes核心层级:容纳了大量元素
2026-01-04
数据科学
#笔记 #数据科学 #可视化 #Matplotlib #Seaborn

如何在cmd中打开指定文件夹路径(三种方法)

@TOC 微信公众号:数学建模与人工智能方法一(快捷简单)打开指定的文件夹,在路径栏里点击并输入“cmd”,回车,就进入控制台了。默认路径就是指定文件夹的路径。 方法二在搜索框中搜索“cmd”或按win+R键,打开命令窗口。在默认路径后输入“cd”,空格,再输入(复制)指定文件夹路径。我们发现回车后暂时还是原来默认的路径。 然后输入指定文件夹所在的盘,这里我们输入的是“E:”(双引号里的),再
2026-01-04
技术笔记
#技术笔记
12345…9

搜索

Hexo Fluid
总访问量 次 总访客数 人