【sklearn中LinearRegression,logisticregression函数及其参数】

作者 : admin 本文共1537个字,预计阅读时间需要4分钟 发布时间: 2024-06-10 共2人阅读

文章目录

  • 前言
  • 一、sklearn中的LinearRegression
    • 1. 引入库
    • 2. LinearRegression的主要参数及其解释
    • 3. LinearRegression的使用步骤
      • (1) 生成模拟数据
      • (2) 创建并训练模型
      • (3) 预测与评估
  • 二、sklearn中的LogisticRegression
    • 1. 引入库
    • 2. LogisticRegression的主要参数及其解释
    • 3. LogisticRegression的使用步骤
      • (1) 生成模拟数据
      • (2) 创建并训练模型
      • (3) 预测与评估

前言

本文将介绍 sklearn 库中 LinearRegressionLogisticRegression 函数及其参数配置。线性回归和逻辑回归是机器学习中两种基本且重要的算法,广泛应用于回归和分类问题中。


一、sklearn中的LinearRegression

1. 引入库

from sklearn.linear_model import LinearRegression

2. LinearRegression的主要参数及其解释

  • fit_intercept: 是否计算截距。默认为 True,表示计算截距。
  • normalize: 是否在回归前对数据进行归一化。默认为 False
  • copy_X: 是否复制X。默认为 True
  • n_jobs: 用于计算的作业数。默认为 None,表示使用1个作业。如果设置为 -1,则使用所有CPU。

3. LinearRegression的使用步骤

(1) 生成模拟数据

import numpy as np
X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]])
y = np.dot(X, np.array([1, 2])) + 3

(2) 创建并训练模型

model = LinearRegression()
model.fit(X, y)

(3) 预测与评估

predictions = model.predict(np.array([[3, 5]]))
print(predictions)

二、sklearn中的LogisticRegression

1. 引入库

from sklearn.linear_model import LogisticRegression

2. LogisticRegression的主要参数及其解释

  • penalty: 使用的正则化惩罚。可选值为 l1l2elasticnetnone。默认为 l2
  • dual: 对偶或原始方法。对于 l2 惩罚来说,仅适用于 liblinear 解决器。
  • tol: 停止迭代的标准。默认为 1e-4
  • C: 正则化强度的倒数。必须是正浮点数。默认为 1.0
  • fit_intercept: 是否计算截距。默认为 True
  • solver: 使用的优化算法。可选值为 newton-cglbfgsliblinearsagsaga。默认为 lbfgs
  • max_iter: 迭代的最大次数。默认为 100
  • multi_class: 分类方式。可选值为 autoovrmultinomial。默认为 auto
  • n_jobs: 用于计算的作业数。默认为 None,表示使用1个作业。如果设置为 -1,则使用所有CPU。

3. LogisticRegression的使用步骤

(1) 生成模拟数据

from sklearn.datasets import make_classification
X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)

(2) 创建并训练模型

model = LogisticRegression()
model.fit(X, y)

(3) 预测与评估

predictions = model.predict(X[:10])
print(predictions)
本站无任何商业行为
个人在线分享 » 【sklearn中LinearRegression,logisticregression函数及其参数】
E-->