Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
gnuplot 上的相关系数
我想使用拟合函数绘制数据 function f x a b x 2 绘图后我得到这个结果 correlation matrix of the fit parameters m n m 1 000 n 0 935 1 000 我的问题是 如何
gnuplot
Regression
correlation
从逻辑模型中仅提取 p 值显着的系数
我运行了逻辑回归 我将其命名为摘要 分数 因此 summary score 给了我以下内容 Deviance Residuals Min 1Q Median 3Q Max 1 3616 0 9806 0 7876 1 2563 1 9246
r
extract
Regression
`plot.lm()` 生成的“残差与杠杆”图中的红色实线是什么?
fit lt lm dist speed cars plot fit which 5 绘图中间的红实线是什么意思 我认为这与库克的距离无关 它是 LOESS 回归线 其中span 2 3 and degree 2 通过针对杠杆平滑标准化残差
r
plot
Regression
linearregression
LM
python中的多元(多项式)最佳拟合曲线?
如何在 python 中计算最佳拟合线 然后将其绘制在 matplotlib 中的散点图上 我使用普通最小二乘回归计算线性最佳拟合线 如下所示 from sklearn import linear model clf linear mode
python
matplotlib
machinelearning
Regression
scatterplot
为什么 R 中内置的 lm 函数这么慢?
我一直以为lm函数在 R 中非常快 但正如本例所示 使用以下函数计算封闭解solve功能更快 data lt data frame y rnorm 1000 x1 rnorm 1000 x2 rnorm 1000 X cbind 1 dat
r
Regression
linearregression
LM
计算R中表格每一行的线性趋势线
是否有可能在不使用循环的情况下对数据帧的每一行进行线性回归 趋势线的输出 截距 斜率 应作为新列添加到原始数据框中 为了更清楚地表达我的意图 我准备了一个非常小的数据示例 day1 lt c 1 3 1 day2 lt c 2 2 1 da
r
Regression
trendline
自动 vlookup 并将系数与 R 相乘
我正在尝试用 R 统计编程语言 编写一个函数 该函数允许我自动计算线性回归 lm 问题 回归是通过 step 函数计算的 因此无法提前知道所选择的系数 问题 自动识别阶跃函数选择的系数 Vlookup 和交叉乘以结果的第二列 例如 View
r
Regression
vlookup
使用 glm 指定 R 中的公式,无需显式声明每个协变量
我想将特定变量强制纳入 glm 回归 而不完全指定每个变量 我的真实数据集有大约 200 个变量 到目前为止 我在网上搜索中还没有找到这样的样本 例如 只有 3 个变量 n 200 set seed 39 samp data frame W
r
programentrypoint
Regression
GLM
使用相同 glm 的 glm 预测和 geom_smooth() 之间的差异
我正在尝试使用概率模型重现其他人的工作 不幸的是 我没有太多关于他们的方法的信息 只有他们的起始数据和模型图 当我在 ggplot 中绘制数据并使用拟合线时geom smooth method glm 我能够重现以前的工作 然而 当我尝试使
r
ggplot2
Regression
GLM
获取“最佳”lambda 处的 glmnet 系数
我在 glmnet 中使用以下代码 gt library glmnet gt fit glmnet as matrix mtcars 1 mtcars 1 gt plot fit xvar lambda 然而 我想打印出最好的 Lambda
r
Regression
glmnet
coefficients
高斯过程 scikit-learn - 异常
我想使用高斯过程来解决回归任务 我的数据如下 每个X向量的长度为37 每个Y向量的长度为8 我正在使用sklearn封装在Python但尝试使用高斯过程会导致Exception from sklearn import gaussian pr
python
scikitlearn
Regression
Gaussian
forecasting
R:对所有变量重复线性回归并将结果保存在新的数据框中
我有一个名为 dat 的数据框 其中包含 10 个数值变量 var1 var2 var3 var4 var5 var 10 每个变量都有多个观察结果 dat var1 var2 var3 var4 var5 var6 var7 var8 v
r
loops
Regression
使用 gtsummary::tbl_regression 以科学计数法显示 p 值?
非常感谢您的帮助 包括p values for gtsummary tbl regression函数于科学计数法 我正在使用大数据 显示 3 会非常有用p 值的小数点 gt 0 001 and p 值 一个有代表性的例子 load pack
Regression
gtsummary
回归对输入变量之一给出错误“对比只能应用于具有 2 个或更多级别的因素”[重复]
这个问题在这里已经有答案了 我正在 R 中使用大量输入变量运行 logit 回归 newlogit lt glm install SIZES GROSSCONSUMPTION NETTCONSUMPTION NETTGENERATION G
r
Regression
categoricaldata
rstudent() 返回“mlm”的错误结果(装有多个 LHS 的线性模型)
我知道对具有多个 LHS 的线性模型的支持是有限的 但是 当可以在 mlm 对象上运行函数时 我希望结果是可信的 使用时rstudent 产生奇怪的结果 这是一个错误还是有其他解释 在下面的例子中fittedA and fittedB是相同
r
Regression
linearregression
LM
MLM
如何从多项式拟合中提取方程?
我的目标是将一些数据拟合到多项式函数并获得包括拟合参数值的实际方程 我适应了这个例子 http scikit learn org stable auto examples linear model plot polynomial inter
python
scikitlearn
Regression
curvefitting
R 计算具有奇点的 lm 模型的鲁棒标准误差 (vcovHC)
在 R 中 当某些系数因奇点而被丢弃时 如何使用 vcovHC 计算稳健的标准误差 标准 lm 函数似乎可以很好地计算实际估计的所有系数的正常标准误差 但 vcovHC 会抛出错误 面包中的错误 肉 不合格的参数 我使用的实际数据有点复杂
r
Regression
LM
如何使用张量流训练简单的非线性回归模型?
我见过这个线性回归的例子 https github com aymericdamien TensorFlow Examples blob master notebooks 2 20 20Basic 20Classifiers linear
python
Regression
tensorflow
«
1 ...
5
6
7
8
9
10
11
...15
»