Hilda

「离开世界之前 一切都是过程」

【新手002】Math.random()随机函数

1.概率实验:验证 Math.random() 方法生成随机数的均匀性 Math.random() 生成的随机数在 [0.0, 1.0) 区间内均匀分布,下面是一个证明均匀分布的小实验: 1 2 3 4 5 6 7 8 9 10 11 public class Test_Random { public static void main(String[] args) { ...

Ollama-CLI

1.什么是Ollama? Ollama 是一个开源的大型语言模型(LLM)平台,Ollama 提供了简洁易用的命令行界面和服务器,使用户能够轻松下载、运行和管理各种开源 LLM,通过 Ollama,用户可以方便地加载和使用各种预训练的语言模型,支持文本生成、翻译、代码编写、问答等多种自然语言处理任务。 【ollama官网】:https://ollama.com 任何私人的一些...

机器学习算法2-线性回归-归一化与正则化

1.归一化(Normalization) 梯度下降优化的效率受到不同特征维度(如\(x_1\) 和 \(x_2\))数值大小差异的影响。 在这种情况下,梯度下降的路径会非常曲折,需要在宽阔的维度上迈小步,在狭窄的维度上迈大步,导致收敛速度非常慢。 当对特征进行归一化处理后,它们的取值范围变得相似,损失函数的等高线会变得接近圆形,梯度下降可以沿着更直线的路径,高效地向中心收敛,大...

机器学习算法2-线性回归-多项式回归

在多篇博客中已经提及了多项式回归:比如 机器学习算法2-线性回归-实战、岭回归、Lasso回归 这篇博客再做一些补充。 1.多项式回归 在做升维的时候,最常见的手段就是将已知维度进行相乘(或者自乘)来构建新的维度。普通线性方程, 无法拟合规律, 必须是多项式, 才可以完美拟合曲线规律。 对于多项式回归来说主要是为了扩展线性回归算法来适应更广泛的数据集, 比如我们数据集有两个维...

机器学习算法2-线性回归-Elastic-Net弹性网络

Elastic-Net是一种结合了L1和L2正则化的线性回归模型。它的目标是最小化一个损失函数,这个损失函数由三部分组成: 均方误差项:$$(\frac{1}{2n_{samples}})   Xw - y   ^2$$,这部分是普通...

机器学习算法2-线性回归-梯度下降原理

1.无约束最优化问题 (Unconstrained Optimization Problem) 无约束最优化问题旨在从所有可能的解决方案中,找到一个在特定指标(如函数值)下达到最优(最小或最大)的方案。 从数学角度看,这通常是寻找一个函数在给定集合 S 上的极小值或极大值。 广义上的最优化包括数学规划、图与网络、组合最优化等多个领域。狭义上的最优化则特指数学规划。 “无约束最优化...

机器学习算法2-线性回归-波士顿房价问题

线性回归实战-Boston 数据集回归分析 要求: 使用 scikit-learn 的 load_boston 加载波士顿房价数据集,并完成以下任务: 注:load_boston从sklearn 1.2版本之后已经被移除,所以可以采用下面的方式加载数据: 1 2 3 4 5 6 7 import pandas as pd import numpy as n...

机器学习算法2-线性回归-实战、岭回归、Lasso回归

关于线性回归的原理,详细可以参考我写的这篇博客:机器学习算法2-线性回归-原理 1.使用正规方程进行求解 正规方程(Normal Equation)是一种用于求解线性回归模型中参数(\(\theta\))的解析方法。与梯度下降等迭代优化算法不同,正规方程可以直接一步到位地计算出使成本函数/损失函数(Cost Function)最小化的最优参数。 准备真实数据,绘制散点图 1 ...

机器学习算法2-线性回归-原理

1.简单线性回归概念 线性回归是一种用于预测连续值输出的监督学习算法。它的核心思想是找到一个线性函数,该函数能尽可能好地拟合输入特征与输出目标之间的关系。 2.多元线性回归概念 例如: 线性回归模型可以看作是在二维空间中寻找一条直线,在三维空间中寻找一个平面,在更高维空间中寻找一个超平面,来最好地拟合数据点。 线性回归模型的基本形式是一个线性方程:\(h...

机器学习算法1-KNN手写数字识别

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 ...