首頁 > 統計、研究法、論文寫作 > 人工智慧(AI)與貝葉斯(Bayesian)迴歸的整合:應用STaTa分析(附光碟)

統計、研究法、論文寫作

人工智慧(AI)與貝葉斯(Bayesian)迴歸的整合:應用STaTa分析(附光碟)

數量:

總計:NT$980  

Facebook
Twitter
Google+

你可能有興趣

商品規格表

  • [出版社]五南文化
    [作者]張紹勳、張任坊
    [ISBN]9789577632210
    [版次]初版
    [裝訂/頁數]平裝/896頁
    [出版日]2019/04/01

    ※實際規格以您選擇的規格為主

商品簡介

  • ●國內第一本解說STaTa ——多達45 種貝葉斯迴歸分析運用的教科書。
    ●STaTa+AI+Bayesian超強組合,接軌世界趨勢,讓您躋身大數據時代先驅。
    ●超強統計軟體STaTa,簡單易懂,功能齊全,廣獲肯定。
    ●結合「理論、方法、統計」,讓讀者能精準使用Bayesian迴歸。
    ●內文包含大量圖片示意,配合隨書光碟資料檔,實地演練,學習更有效率。

    5G時代的來臨,聯手(AI)人工智慧邁入嶄新紀元,未來可預見日常將出現更密集的AI科技,更可能改變產業型態、生活體驗,甚至是人類的思考模式。

    AI又稱機器智能,迄今已是一門顯學,屬於自然科學和社會科學的交集。其中機器學習演算法及Bayesian後驗機率等貝氏推論,不僅適合傳統科學研究法,更適合於當今大數據(big data)時代的來臨。

    本書詳細說明STaTa運用中,45種Bayesian迴歸,以及實務上已非常成熟的AI統計應用技術,可供人工智慧、機器學習等自然科學和社會科研究者使用。內文包含大量圖片示意,搭配隨書附贈光碟,簡潔易懂,學習效果更顯著。
  • 商品內容
  • 物流

目次

自 序

Chapter 01 人工智慧的基礎:機器學習理論及貝氏定理(Bayes’ theorem)
1-1 人工智慧(Artificial Intelligence, AI)
1-1-1 AI 研究的議題
1-1-2 強人工智慧vs. 弱人工智慧
1-1-3 AI 研究方法
1-2 機器學習(machine learning)
1-2-1 監督vs. 非監督機器學習
1-2-2 機器學習的演算法(algorithm)
1-2-3 何謂Features( ≈自變數)、Training、Label( ≈類別依變數)?
1-2-4 監督機器學習⊃多變數線性迴歸(machine learning: linear regression with multiple variables)
1-2-5 機器學習:梯度下降演算法(gradient descent algorithm)
1-2-6 機器學習:特徵縮放(feature scaling)
1-3 參數估計:最大概似估計、最大後驗(Max posterior)、貝葉斯估計
1-3-1 何謂參數估計?
1-3-2a 估計法一:最大概似估計(MLE) ≠概似比(LR)
1-3-2b 最大概似估計法(MLE) 做分類
1-3-3 估計法二:最大後驗(Max posterior) 估計
1-3-4 估計法三:貝葉斯估計
1-4 期望最大化(EM) 演算法

Chapter 02 貝葉斯(Bayesian) 迴歸有45 種
2-1 貝氏定理與條件機率( 重點整理)
2-1-1 貝氏機率(Bayesian probability)
2-1-2 貝氏(Bayes) 定理、條件機率
2-2 貝葉斯推論(Bayesian inference)
2-2-1 貝葉斯法則(Bayesian rule)
2-2-2 推論「排他性和窮舉命題」的可能性(inference over exclusive and exhaustive possibilities)
2-2-3a 貝葉斯推論之數學性質(mathematical properties)
2-2-3b 貝葉斯決策理論
2-2-4 貝葉斯推論之案例
2-2-5 頻率統計和決策理論之貝葉斯模型,誰優?Bayesian Information Criterion (BIC)
2-2-6 貝葉斯認識論(Bayesian epistemology)
2-2-7 貝葉斯推理的影響因素
2-3 常見的分布有15 種
2-4 STaTa likelihood-based Bayesian 迴歸有45 種
2-4-1 STaTa 共12 類:45 種Bayesian 迴歸
2-4-2 Metropolis-Hastings 演算法(bayesmh 指令) 和Monte Carlo
2-4-3 貝葉斯線性迴歸的基本原理
2-5 貝葉斯統計及正規化(Bayesian statistics and Regularization)
2-5-1 過度適配vs. 不足適配(overfitting and underfitting)
2-5-2 Bayesian statistics 及正規化(regularization)
2-5-3 最佳成本函數之正規化(optimize cost function by regularization)

Chapter 03 最大概似(ML) 各家族(family):機器學習技術
3-1 最大概似(ML) 之Regression 家族(family)
3-1-1 迴歸分析介紹
3-1-2 線性迴歸(linear regression)
3-2 多元迴歸的自變數選擇法有三:子集合選取法、正規化、資訊準則法(bayesstats ic 指令)
3-2-1 迴歸模型與正規項(regulation):Ridge 迴歸、Lasso 迴歸原理
3-2-2 脊迴歸/嶺迴歸(ridge) 的原理:多重共線性(ridgeregress 外掛指令)
3-2-3a 迴歸正規項(regulation):lasso 迴歸、Ridg 迴歸、elastic-net 迴歸(lassoregress、ridgeregress、elasticregress 外掛指令)
3-2-3b 機器學習演算法:套索迴歸(Lasso Regrission)(lassoregress、lasso2、elasticregress 指令)
3-2-4a 機器學習演算法:脊迴歸(Ridge Regression)(rxridge、rxrcrlq、rxrmaxl等14 個指令)
3-2-4b Ridge 迴歸分析:解決共線性(rxridg 外掛指令)
3-2-5 機器學習演算法:彈性網路多工Lasso 迴歸(multi task Lasso)(elasticregress 指令)
3-2-6 邏輯斯迴歸(logistic regression)
3-3 機器學習法:隨機森林( 外掛指令randomforest)、支援向量機( 外掛指令svmachines)
3-3-1 機器學習法:隨機森林( 外掛指令:randomforest)
3-3-2 機器學習法:支援向量機SVM( 外掛指令:svmachines)
3-4 最大概似的Kernel-Based 家族:小樣本、非線性及高維模型識別
3-4-1 非線性分類之核函數
3-4-2 支援向量機(SVM) 分類器:原型、對偶型、核技巧、現代方法
3-4-3a 支援向量機(SVM) 原理:小樣本、非線性及高維模型識別
3-4-3b 支援向量機做分類(svmachines 外掛指令)
3-4-4 核迴歸/分段加權迴歸(kernel regression):非單調函數(lpoly、npregress、teffects 指令)
3-5 最大概似(ML) 之Bayes-Based 家族( 前導字「bayes: 某迴歸」指令)
3-5-1 判別模型(discriminative model) 與生成模型(generative model)
3-5-2 高斯判別分析(Gaussian discriminant analysis)
3-5-3 樸素貝葉斯(naive bayes) 演算法

Chapter 04 貝葉斯(Bayesian) 線性迴歸之原理
4-1 貝葉斯(Bayesian) 分析
4-2 參數估計:最大概似估計、最大後驗估計、貝葉斯估計
4-3 貝葉斯(Bayesian) 線性迴歸
4-3-1a 線性迴歸之參數估計最小平方法 (OLS)
4-3-1b 貝葉斯(Bayesian) 迴歸之原理
4-3-2 貝葉斯線性迴歸:參數分布、預測分布、等價核
4-3-3 貝葉斯線性迴歸:學習過程、優缺點、貝葉斯脊迴歸
4-4 貝葉斯多元線性迴歸之原理(Bayesian multivariate linear regression)

Chapter 05 Bayes 線性迴歸(「bayes: regress」、「bayesgraph diagnostics」、「bayesstats ic」指令)
5-1 線性Bayesian 迴歸( 先rsquare、再「bayes: regression」指令)
5-1-1 OLS 先挑所有自變數的最佳組合( 再Bayes 線性迴歸)
5-1-2 OLS 先挑所有自變數的最佳組合,再Bayes 線性迴歸(bayes : regress y x1 x2 x3)
5-2 方法一Bayes 線性迴歸(bayes : regress ⋯指令)
5-2-1 Bayes 線性迴歸及預測值:使用內定概似及先驗(uninformative data)(bayes : regress ⋯指令)
5-2-2 Bayes 線性迴歸:自定概似及先驗(informative data)(bayes : regress⋯指令)
5-3 方法二Bayes 線性迴歸(bayesmh : regress ⋯指令)
5-4 線性Bayesian 迴歸模型( 改用bayesmh 指令)
5-4-1 Bayesian 估計之原理及實作(「bayes: regress」指令)
5-4-2 MCMC 收斂性(convergence) 及假設檢定(hypotheses testing)
5-4-3 先驗(Priors):Gibbs 採樣(sampling)
5-4-4 自定先驗(Custom priors)
5-5 Bayes 迴歸:縮減模型vs. 完全模型,誰優?(bayesmh、bayesstats ic 指令)

Chapter 06 Metropolis-Hastings 演算法之Bayesian模型(bayesmh 指令)
6-1 bayesmh 指令:「線性vs. 非線性」、「單變量vs. 多變量」、「連續vs. 間斷」模型有8 大類
6-2 bayesmh 指令之範例
6-2-1 範例1:OLS 線性迴歸(regress)vs. Bayesian 線性迴歸(bayes : regress)
6-2-2 範例2:Bayesian normal linear regression with noninformative prior( 未自定參數的分布)
6-2-3 範例3:Bayesian linear regression with informative prior( 自定參數的分布)
6-2-4 範例4:Bayesian normal linear regression with multivariate prior
6-2-5 範例5:檢查收斂性(Checking convergence)
6-2-6 範例6:貝氏事後估計值摘要(Postestimation summaries)
6-2-7 範例7:敵對模型的比較(Model comparison)
6-2-8 範例8:假設檢定(Hypothesis testing)( bayestest model、interval interval)

Chapter 07 Bayesian 邏輯斯模型、多項邏輯斯模型(bayes: logistic、bayes: mlogit 指令)
7-1 邏輯斯迴歸原理
7-2 Bayesian logit 迴歸分析(bayes: logit、bayes : logistic 指令)
7-2-1 範例1:貝氏Logistic 迴歸(bayes: logit 指令)
7-2-2 範例2:自定之資訊先驗(informative prior):貝氏Logistic 迴歸(bayes: logit 指令)
7-3 對照組:multinomial logistic 迴歸分析(bayes: mlogit 指令)
7-3-1 多項(multinomial) 邏輯斯迴歸之原理
7-3-2 Multinomial Logit 迴歸分析:職業選擇種類(mlogit 指令)
7-3-3 多項邏輯斯迴歸分析:乳房攝影(mammograph) 選擇的因素(mlogit 指令)
7-4 實驗組:Bayesian multinomial logistic 迴歸分析:健康保險(bayes: mlogit指令)

Chapter 08 聯立方程式:Bayesian multivariate 迴歸(bayes: mvreg 指令)
8-1 多變量Bayesian 迴歸分析(bayes: mvreg 指令)

Chapter 09 非線性迴歸:廣義線性模型(GLM)(Baye: glm 指令)
9-1 廣義線性模型之原理
9-2 當依變數是比例(proportion) 時,如何做迴歸(glm 指令)?
9-3 廣義線性迴歸(glm、baye: glm 指令)

Chapter 10 Survival 模型(baye: streg 指令)
10-1 存活分析的原理
10-1-1 存活分析之定義
10-1-2 為何存活分析是臨床研究最重要的統計法?
10-1-3 存活分析之三種研究目標
10-2 存活分析Bayesian 迴歸 (baye: streg 指令)

Chapter 11 多層次(multilevel) 模型(bayes: mixed 指令)
11-1 多層次模型的原理
11-2 Bayesian 多層次模型:重複測量(bayes: mixed 指令)

Chapter 12 計數(count) 模型、Zero-Inflated 模型(bayes: tpoisson、baye: zinb 指令)
12-1 傳統原理:Count 依變數:Zero-Inflated Poisson 迴歸 vs. negative binomial迴歸
12-1-1 Poisson 分配
12-1-2 負二項分配(Negative Binomial Distribution)
12-1-3 零膨脹(Zero-Inflated)Poisson 分配
12-2 單層次:Zero-Inflated Poisson 迴歸vs. 負二項迴歸(zip、zinb 指令)
12-2-1 傳統:Zero-Inflated Poisson 迴歸vs. 負二項迴歸(zip、zinb 指令)
12-2-2 Bayesian Poisson 迴歸(bayes: poisson)、Bayesian 零膨脹Poisson迴歸(bayes: zip 指令)
12-2-3 Zero-Inflated negative binomial 模型(bayes: zinb 指令)
12-3 Zero-Inflated ordered probit regression 練習:釣魚(zip 指令)
12-4 零膨脹Ordered probit 迴歸分析:抽菸嚴重度(zioprobit 指令)
12-5 截斷(truncated) Poisson 迴歸分析(bayes: tpoisson 指令)
12-5-1 截斷迴歸(truncated regression)(truncreg 指令)
12-5-2 Bayesian 截斷Poisson 迴歸(truncated regression)(bayes: tpoisson 指令)

Chapter 13 Bayesian 自我迴歸模型 (bayes : regress yL1.y 指令)
13-1 時間列序之統計:自我迴歸(autoregressive models)
13-1-2 ARIMA 建構模型之步驟
13-2 穩定數列之自我迴歸模型(AR)
13-2-1 AR(1) 模型
13-2-2 AR(2) 模型
13-2-3 何謂穩定性( 定態)?
13-3 Bayesian 自我迴歸之建模過程(bayes : regress y L.y 指令)

參考文獻


商品問與答(共0則諮詢)

暫時還沒有任何商品問與答的訊息!
總計 0個,共 1 頁。 第一頁上一頁下一頁最末頁
姓名:    《立即登錄》
E-mail:
諮詢內容:
captcha
驗證碼:
優惠好康訊息




    0

    購物車

    購物車內沒有商品!

    錯誤提示

    加入購物車成功

    請選擇規格項目

    數量