Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如果数据具有单个特征,则使用 array.reshape(-1, 1) 重塑数据;如果数据包含单个样本,则使用 array.reshape(1, -1) 重塑数据
当我从数据中预测一个样本时 它会给出重塑错误 但我的模型具有相同的行数 这是我的代码 import pandas as pd from sklearn linear model import LinearRegression import
python
python3x
machinelearning
scikitlearn
linearregression
如何使用 Gnuplot 4.6 跟踪图表中的趋势线?
我有这些数据 2019 08 28 384 2019 08 29 394 2019 08 30 406 2019 08 31 424 2019 09 01 439 2019 09 02 454 2019 09 03 484 和 gnuplo
gnuplot
linearregression
curvefitting
求解线性回归的梯度下降法和正规方程法给出了不同的解
我正在研究机器学习问题 并希望使用线性回归作为学习算法 我实现了两种不同的方法来查找参数theta线性回归模型 梯度 最速 下降和正态方程 对于相同的数据 他们应该给出大致相等的theta向量 然而他们没有 Both theta除了第一个元
MATLAB
machinelearning
linearregression
gradientdescent
R:我可以使用 regsubsets() 按组添加/排除变量吗?
我正在使用一个数据框 其中包含许多指标变量 这些变量是我使用分类变量制作的dummy 使用时regsubsets 来自leaps包 有没有办法让它按组而不是单独包含这些指标 换句话说 我可以让它进行测试吗 模型包含DF Cat1 A DF
r
linearregression
梯度下降算法不会收敛
我正在尝试为斯坦福机器学习讲座中解释的梯度下降算法编写一些代码 第二讲 25 00左右 http www youtube com watch v 5u4G23 OohI t 25m 下面是我最初使用的实现 我认为它是从讲座中正确复制的 但是
c
machinelearning
linearregression
线性回归:如何求点与预测线之间的距离?
我正在寻找点和预测线之间的距离 理想情况下 我希望结果显示在包含距离 称为 距离 的新列中 我的进口 import os path import numpy as np import pandas as pd import matplotl
python
NumPy
machinelearning
scikitlearn
linearregression
如何在R中使用公式排除主效应但保留交互作用
我不想要主效应 因为它与更精细的因子固定效应共线 所以拥有这些效果很烦人NA 在这个例子中 lm y x z 我想要的互动x 数字 和z 因素 但不是主效应z 介绍 R 文档 formula says 运算符表示因子交叉 a b 解释为 a
r
Regression
linearregression
LM
categoricaldata
当我们可以解析线性回归时为什么要梯度下降
在线性回归空间中使用梯度下降有什么好处 看起来我们可以用分析方法解决这个问题 找到最小成本函数的theta0 n 那么为什么我们仍然想使用梯度下降来做同样的事情呢 谢谢 当您使用正规方程为了分析求解成本函数 您必须计算 其中 X 是输入观测
machinelearning
linearregression
gradientdescent
线性回归预测中的个别项
我在 R 中对某些数据集进行了回归分析 并尝试预测数据集中每行的每个自变量对因变量的贡献 所以像这样 set seed 123 y lt rnorm 10 m lt data frame v1 rnorm 10 v2 rnorm 10 v3
r
linearregression
Prediction
为什么 R 中的回归会删除因子变量的索引 1? [复制]
这个问题在这里已经有答案了 我正在尝试使用 R 进行回归lm和glm功能 我的因变量是基于给定时间段内事件与非事件比例的对数转换数据 所以我的因变量是连续的 而我的自变量是因子变量或虚拟变量 我有两个自变量 可以取以下值 i 年到 m 年
r
statistics
Regression
linearregression
为什么在 python 中求解 Xc=y 的不同方法会给出不同的解,而它们不应该给出不同的解?
我试图解决线性系统Xc y那是方形的 我知道解决这个问题的方法有 使用逆c
python
NumPy
linearalgebra
linearregression
polynomialmath
测试数据中因子水平未知的 Predict.lm()
我正在拟合一个模型来分解数据并进行预测 如果newdata in predict lm 包含模型未知的单个因素水平 all of predict lm 失败并返回错误 有没有好的方法可以拥有predict lm 返回模型已知的因子水平的预测
r
Regression
linearregression
LM
由于 R 中的大整数日期时间,线性模型奇异?
日期随机正态的简单回归失败 但使用小整数而不是日期的相同数据可以按预期工作 Example dataset with 100 observations at 2 second intervals set seed 1 df lt data
r
datetime
Regression
linearregression
LM
如何在此图中绘制线性回归线?
在此输入图像描述如何在此图中绘制线性回归线 这是我的代码 import numpy as np import pandas datareader data as web import pandas as pd import datetime
python
datetime
matplotlib
linearregression
零截距模型的 lm() 中的 R 平方
我经营一家lm 在 R 中 这是总结的结果 Multiple R squared 0 8918 Adjusted R squared 0 8917 F statistic 9416 on 9 and 10283 DF p value lt
r
statistics
linearregression
leastsquares
使用 matplotlib / numpy 进行线性回归
我正在尝试在我生成的散点图上生成线性回归 但是我的数据采用列表格式 并且我可以找到使用的所有示例polyfit需要使用arange arange但不接受列表 我已经搜索了很多有关如何将列表转换为数组的信息 但似乎没有什么明确的 我错过了什么
python
NumPy
matplotlib
linearregression
curvefitting
如何绘制双对数 R 图的线性回归?
我有以下数据 someFactor 500 x c 1 250 y x 25 someFactor 我以双对数图显示 plot x y log xy 现在我使用线性模型 找出 数据的斜率 model lm log y log x model
r
plot
Regression
linearregression
logarithm
从 QR 分解中获取帽子矩阵以进行加权最小二乘回归
我正在尝试延长lwr 包的功能McSptial 它适合作为非参数估计的加权回归 在核心lwr 函数 它使用以下方式反转矩阵solve 而不是 QR 分解 导致数值不稳定 我想改变它 但不知道如何从 QR 分解中获取帽子矩阵 或其他导数 有数
r
Regression
linearregression
LM
qrdecomposition
为什么 drop1 忽略混合模型的线性项?
我有六个固定因素 A B C D E and F 和一个随机因素R 我想使用 R 语言测试线性项 纯二次项和双向交互 因此 我构建了完整的线性混合模型并尝试使用drop1 full model lt lmer Z A B C D E F I
r
linearregression
mixedmodels
在 R 中使用线性回归填充 NA
我有一个包含一个时间列和 2 个变量的数据 下面的示例 df lt structure list time c 15 16 17 18 19 20 21 22 23 24 25 26 var1 c 20 4 31 5 NA 53 7 64
r
linearregression
na
«
1 ...
3
4
5
6
7
8
9
»