tidymodels包
library(broom)
fit <- lm(Sepal.Width ~ Petal.Length + Petal.Width, iris)
summary(fit)
#tidy()生成一个tibble(),其中每一行都包含有关模型重要组件的信息。
#对于回归模型,这通常对应于回归系数。 如果要检查模型或创建自定义可视化,这可能很有用。
tidy(fit)
#glance()返回一个恰好有一行模型自生的度量和相关统计数据的tibble。
#这对于检查模型错误指定和比较许多模型很有用。
glance(fit)
#augment将数据列添加到数据集,其中包含拟合值,残差或群集分配等信息。 添加到数据集的所有列都有。 前缀以防止覆盖现有列。
augment(fit, data = iris)
library(parsnip)
#统一模型调用接口和参数
rand_forest(mtry = 12, trees = 2000) %>%
set_engine("ranger", importance = 'impurity') %>%
fit(y ~ ., data = dat)
rand_forest(mtry = 12, trees = 2000) %>%
set_engine("spark") %>%
fit(y ~ ., data = dat)
library(modeldb)
#数据库中拟合模型
con <- DBI::dbConnect(RSQLite::SQLite(), path = ":memory:")
RSQLite::initExtension(con)
dplyr::copy_to(con, mtcars)
tbl(con, "mtcars") %>%
select(wt, mpg, qsec) %>%
linear_regression_db(wt)
km <- tbl(con, "mtcars") %>%
simple_kmeans_db(mpg, wt)
library(recipes)
#用于创建和预处理可用于建模或可视化的设计矩阵的替代方法。
library(mlbench)
data(Sonar)
sonar_rec <- recipe(Class ~ ., data = Sonar) %>%
step_center(all_predictors()) %>%
step_scale(all_predictors())
#在下面的示例中,我们将完成将字符变量转换为其标记化单词的TF-IDF所需的步骤,这些步骤在删除了停用词并将自己仅用于最常用的100个单词之后。 我们将在变量essay0和essay1上传导这个预处理。
library(recipes)
library(textrecipes)
#textrecipes包含用于预处理文本数据的额外步骤。
data(okc_text)
okc_rec <- recipe(~ ., data = okc_text) %>%
step_tokenize(essay0, essay1) %>% # Tokenizes to words by default
step_stopwords(essay0, essay1) %>% # Uses the english snowball list by default
step_tokenfilter(essay0, essay1, max_tokens = 100) %>%
step_tfidf(essay0, essay1)
okc_obj <- okc_rec %>%
prep(training = okc_text)
str(bake(okc_obj, okc_text), list.len = 15)
recipe(~ ., data = data) %>%
step_tokenize(text) %>%
step_stem(text) %>%
step_stopwords(text) %>%
step_topwords(text) %>%
step_tf(text)
recipe(~ ., data = data) %>%
step_tokenize(text) %>%
step_stem(text) %>%
step_tfidf(text)
#tidypredict的主要目标是在数据库中启用运行预测。 它读取模型,提取计算预测所需的组件,然后创建可以转换为SQL的R公式。 换句话说,它能够解析这样的模型:
library(tidypredict)
model <- lm(mpg ~ wt + cyl, data = mtcars)
tidypredict_sql(model, dbplyr::simulate_mssql())
#tidypredict支持通过parsnip接口安装的模型。 目前在tidypredict中确认的那些是:
#broom的tidy()函数与通过tidypredict解析的线性模型一起工作
fit <- lm(Sepal.Width ~ Petal.Length + Petal.Width, iris)
summary(fit)
#tidy()生成一个tibble(),其中每一行都包含有关模型重要组件的信息。
#对于回归模型,这通常对应于回归系数。 如果要检查模型或创建自定义可视化,这可能很有用。
tidy(fit)
#glance()返回一个恰好有一行模型自生的度量和相关统计数据的tibble。
#这对于检查模型错误指定和比较许多模型很有用。
glance(fit)
#augment将数据列添加到数据集,其中包含拟合值,残差或群集分配等信息。 添加到数据集的所有列都有。 前缀以防止覆盖现有列。
augment(fit, data = iris)
library(parsnip)
#统一模型调用接口和参数
rand_forest(mtry = 12, trees = 2000) %>%
set_engine("ranger", importance = 'impurity') %>%
fit(y ~ ., data = dat)
rand_forest(mtry = 12, trees = 2000) %>%
set_engine("spark") %>%
fit(y ~ ., data = dat)
library(modeldb)
#数据库中拟合模型
con <- DBI::dbConnect(RSQLite::SQLite(), path = ":memory:")
RSQLite::initExtension(con)
dplyr::copy_to(con, mtcars)
tbl(con, "mtcars") %>%
select(wt, mpg, qsec) %>%
linear_regression_db(wt)
km <- tbl(con, "mtcars") %>%
simple_kmeans_db(mpg, wt)
library(recipes)
#用于创建和预处理可用于建模或可视化的设计矩阵的替代方法。
library(mlbench)
data(Sonar)
sonar_rec <- recipe(Class ~ ., data = Sonar) %>%
step_center(all_predictors()) %>%
step_scale(all_predictors())
#在下面的示例中,我们将完成将字符变量转换为其标记化单词的TF-IDF所需的步骤,这些步骤在删除了停用词并将自己仅用于最常用的100个单词之后。 我们将在变量essay0和essay1上传导这个预处理。
library(recipes)
library(textrecipes)
#textrecipes包含用于预处理文本数据的额外步骤。
data(okc_text)
okc_rec <- recipe(~ ., data = okc_text) %>%
step_tokenize(essay0, essay1) %>% # Tokenizes to words by default
step_stopwords(essay0, essay1) %>% # Uses the english snowball list by default
step_tokenfilter(essay0, essay1, max_tokens = 100) %>%
step_tfidf(essay0, essay1)
okc_obj <- okc_rec %>%
prep(training = okc_text)
str(bake(okc_obj, okc_text), list.len = 15)
recipe(~ ., data = data) %>%
step_tokenize(text) %>%
step_stem(text) %>%
step_stopwords(text) %>%
step_topwords(text) %>%
step_tf(text)
recipe(~ ., data = data) %>%
step_tokenize(text) %>%
step_stem(text) %>%
step_tfidf(text)
#tidypredict的主要目标是在数据库中启用运行预测。 它读取模型,提取计算预测所需的组件,然后创建可以转换为SQL的R公式。 换句话说,它能够解析这样的模型:
library(tidypredict)
model <- lm(mpg ~ wt + cyl, data = mtcars)
tidypredict_sql(model, dbplyr::simulate_mssql())
#tidypredict支持通过parsnip接口安装的模型。 目前在tidypredict中确认的那些是:
#broom的tidy()函数与通过tidypredict解析的线性模型一起工作
评论
发表评论