Sas-moving-average-regression

Sas-moving-average-regression

Teknik-forex-sebenar-tipu
Stock-options-santa-ana
Apa-is-moving-average-cost


Dimana-do-stock-options-trade Mt-global-trader-options Online-trading-academy-milwaukee-wi How-to-trade-stock-options-in-uk Sistem pengkodean vb-coding-for-foreign-trading Lereng rata-rata 200-hari-bergerak

Kode contoh pada tab Kode Penuh mengilustrasikan bagaimana menghitung rata-rata bergerak suatu variabel melalui keseluruhan kumpulan data, selama pengamatan N terakhir dalam kumpulan data, atau pengamatan N terakhir dalam kelompok OLEH. Contoh file dan contoh kode ini disediakan oleh SAS Institute Inc. karena tanpa jaminan apapun, baik tersurat maupun tersirat, termasuk namun tidak terbatas pada jaminan tersirat tentang kelayakan jual dan kesesuaian untuk tujuan tertentu. Penerima mengetahui dan menyetujui bahwa Institut SAS tidak bertanggung jawab atas segala kerusakan yang timbul dari penggunaan material ini. Selain itu, SAS Institute tidak akan memberikan dukungan untuk bahan-bahan yang terkandung di sini. Contoh file dan contoh kode ini disediakan oleh SAS Institute Inc. karena tanpa jaminan apapun, baik tersurat maupun tersirat, termasuk namun tidak terbatas pada jaminan tersirat tentang kelayakan jual dan kesesuaian untuk tujuan tertentu. Penerima mengetahui dan menyetujui bahwa Institut SAS tidak bertanggung jawab atas segala kerusakan yang timbul dari penggunaan material ini. Selain itu, SAS Institute tidak akan memberikan dukungan untuk bahan-bahan yang terkandung di sini. Hitunglah rata-rata bergerak dari sebuah variabel melalui keseluruhan kumpulan data, selama pengamatan N terakhir dalam kumpulan data, atau pengamatan N terakhir dalam proses error rata-rata BY-group.Autoregressive moving-average (kesalahan ARMA) dan model lain yang melibatkan Kelemahan istilah kesalahan dapat diestimasi dengan menggunakan pernyataan FIT dan simulasi atau perkiraan dengan menggunakan pernyataan SOLVE. Model ARMA untuk proses kesalahan sering digunakan untuk model dengan residu autokorelasi. AR macro dapat digunakan untuk menentukan model dengan proses error autoregressive. Makro MA dapat digunakan untuk menentukan model dengan proses error rata-rata bergerak. Kesalahan Autoregressive Model dengan kesalahan autoregresif orde pertama, AR (1), memiliki bentuk sementara proses kesalahan AR (2) memiliki bentuk dan sebagainya untuk proses orde tinggi. Perhatikan bahwa s independen dan terdistribusi secara identik dan memiliki nilai yang diharapkan dari 0. Contoh model dengan komponen AR (2) dan sebagainya untuk proses orde tinggi. Sebagai contoh, Anda dapat menulis model regresi linier sederhana dengan MA (2) kesalahan rata-rata bergerak dimana MA1 dan MA2 adalah parameter rata-rata bergerak. Perhatikan bahwa RESID.Y didefinisikan secara otomatis oleh MODEL PROC karena fungsi ZLAG harus digunakan untuk model MA untuk memotong rekursi lag. Hal ini memastikan bahwa kesalahan yang tertinggal mulai dari nol pada fase lag-priming dan tidak menyebarkan nilai yang hilang saat variabel periode lag-priming hilang, dan ini memastikan bahwa kesalahan masa depan nol daripada hilang selama simulasi atau peramalan. Untuk rincian tentang fungsi lag, lihat bagian Lag Logic. Model yang ditulis menggunakan makro MA adalah sebagai berikut: Formulir Umum untuk Model ARMA Proses ARMA umum (p, q) memiliki bentuk berikut Model ARMA (p, q) dapat ditentukan sebagai berikut: di mana AR i dan MA j mewakili Parameter autoregresif dan moving-average untuk berbagai kelambatan. Anda dapat menggunakan nama yang Anda inginkan untuk variabel-variabel ini, dan ada banyak cara setara yang bisa ditulis spesifikasi. Proses ARMA vektor juga dapat diestimasi dengan MODEL PROC. Sebagai contoh, dua variabel AR (1) proses untuk kesalahan dari dua variabel endogen Y1 dan Y2 dapat ditentukan sebagai berikut: Masalah Konvergensi dengan Model ARMA Model ARMA dapat diperkirakan sulit. Jika perkiraan parameter tidak berada dalam kisaran yang sesuai, model rata-rata bergerak rata-rata tumbuh secara eksponensial. Residu yang dihitung untuk pengamatan selanjutnya bisa sangat besar atau bisa meluap. Hal ini bisa terjadi baik karena nilai awal yang salah digunakan atau karena iterasi menjauh dari nilai yang masuk akal. Perawatan harus digunakan untuk memilih nilai awal untuk parameter ARMA. Nilai awal 0,001 untuk parameter ARMA biasanya bekerja jika model sesuai dengan data dengan baik dan masalahnya ber-AC. Perhatikan bahwa model MA sering didekati dengan model AR orde tinggi, dan sebaliknya. Hal ini dapat mengakibatkan collinearity yang tinggi pada model ARMA campuran, yang pada gilirannya dapat menyebabkan gangguan serius pada perhitungan dan ketidakstabilan estimasi parameter. Jika Anda memiliki masalah konvergensi sambil memperkirakan model dengan proses kesalahan ARMA, cobalah untuk memperkirakan secara bertahap. Pertama, gunakan pernyataan FIT untuk memperkirakan hanya parameter struktural dengan parameter ARMA yang dimiliki hingga nol (atau perkiraan perkiraan sebelumnya jika tersedia). Selanjutnya, gunakan pernyataan FIT lain untuk memperkirakan parameter ARMA saja, dengan menggunakan nilai parameter struktural dari putaran pertama. Karena nilai parameter struktural cenderung mendekati perkiraan akhir, perkiraan parameter ARMA sekarang mungkin akan terpenuhi. Akhirnya, gunakan pernyataan FIT lain untuk menghasilkan perkiraan simultan semua parameter. Karena nilai awal parameter sekarang mungkin mendekati perkiraan akhir bersama mereka, taksiran harus disimpulkan dengan cepat jika modelnya sesuai untuk data. AR Kondisi Awal Kelambatan awal dari hal-hal kesalahan model AR (p) dapat dimodelkan dengan berbagai cara. Metode startup error autoregressive yang didukung oleh prosedur SASETS adalah sebagai berikut: conditional least squares (prosedur ARIMA dan MODEL) prosedur kuadrat tanpa syarat (prosedur AUTOREG, ARIMA, dan MODEL) Kemungkinan maksimum (prosedur AUTOREG, ARIMA, dan MODEL) Yule-Walker (AUTOREG Prosedur saja) Hildreth-Lu, yang menghapus pengamatan p pertama (hanya prosedur MODEL) Lihat Bab 8, Prosedur AUTOREG, untuk penjelasan dan pembahasan tentang manfaat dari berbagai metode startup AR (p). Inisialisasi CLS, ULS, ML, dan HL dapat dilakukan oleh PROC MODEL. Untuk kesalahan AR (1), inisialisasi ini dapat diproduksi seperti ditunjukkan pada Tabel 18.2. Metode ini setara dengan sampel besar. Tabel 18.2 Inisialisasi yang Dilakukan oleh MODEL PROC: AR (1) KESALAHAN Keterlambatan awal dari istilah kesalahan model MA (q) juga dapat dimodelkan dengan berbagai cara. Paradigma start-up kesalahan rata-rata bergerak berikut didukung oleh prosedur ARIMA dan MODEL: kuadrat tanpa syarat minimal bersyarat kuadrat bersyarat Metode kuadrat terkecil bersyarat untuk memperkirakan rata-rata kesalahan rata-rata bergerak tidak optimal karena mengabaikan masalah start-up. Hal ini mengurangi efisiensi perkiraan, meskipun tetap tidak bias. Residu tertinggal awal, berlanjut sebelum dimulainya data, diasumsikan 0, nilai harapan tak bersyarat. Ini memperkenalkan perbedaan antara residu ini dan residu kuadrat generalized yang umum untuk kovarian bergerak-rata-rata, yang, tidak seperti model autoregresif, bertahan melalui kumpulan data. Biasanya perbedaan ini menyatu dengan cepat ke 0, namun untuk proses moving-average yang hampir tidak dapat diputar, konvergensinya cukup lambat. Untuk meminimalkan masalah ini, Anda harus memiliki banyak data, dan estimasi parameter rata-rata bergerak harus berada dalam kisaran yang dapat dibalik. Masalah ini bisa diperbaiki dengan mengorbankan penulisan program yang lebih kompleks. Perkiraan kuadrat terkecil tanpa syarat untuk proses MA (1) dapat diproduksi dengan menentukan model sebagai berikut: Kesalahan rata-rata bergerak bisa sulit diperkirakan. Anda harus mempertimbangkan menggunakan pendekatan AR (p) pada proses rata-rata bergerak. Proses rata-rata bergerak biasanya dapat didekati dengan baik oleh proses autoregresif jika data belum diratakan atau dibedakan. AR Macro SAS macro AR menghasilkan pernyataan pemrograman untuk PROC MODEL untuk model autoregresif. AR macro adalah bagian dari perangkat lunak SASETS, dan tidak ada pilihan khusus yang perlu diatur untuk menggunakan makro. Proses autoregresif dapat diterapkan pada persamaan persamaan struktural atau rangkaian endogen sendiri. AR macro dapat digunakan untuk jenis autoregression berikut: vektor autoregression vektor yang tidak terbatas membatasi autoregresi vektor Autoregression univariat Untuk memodelkan kesalahan dari persamaan sebagai proses autoregresif, gunakan pernyataan berikut setelah persamaan: Misalnya, anggaplah Y adalah Fungsi linier X1, X2, dan kesalahan AR (2). Anda akan menulis model ini sebagai berikut: Panggilan ke AR harus mengikuti semua persamaan yang prosesnya berlaku. Permintaan makro sebelumnya, AR (y, 2), menghasilkan pernyataan yang ditunjukkan dalam output LIST pada Gambar 18.58. Gambar 18.58 DAFTAR LIST Output untuk model AR (2) Variabel prefixed PRED adalah variabel program sementara yang digunakan sehingga kelambatan residu adalah residu yang benar dan bukan yang didefinisikan ulang oleh persamaan ini. Perhatikan bahwa ini sama dengan pernyataan yang ditulis secara eksplisit dalam bagian General Form for ARMA Models. Anda juga dapat membatasi parameter autoregresif menjadi nol pada kelambatan yang dipilih. Misalnya, jika Anda menginginkan parameter autoregresif pada kelambatan 1, 12, dan 13, Anda dapat menggunakan pernyataan berikut: Pernyataan ini menghasilkan keluaran yang ditunjukkan pada Gambar 18.59. Gambar 18.59 DAFTAR LIST Output untuk Model AR dengan Lags pada 1, 12, dan 13 Daftar Prosedur MODEL Pernyataan Kode Program yang Disusun sebagai Parsed PRED.yab x1 c x2 RESID.y PRED.y - ACTUAL.y ERROR.y PRED. Y - y OLDPRED.y PRED.y yl1 ZLAG1 (y - perdy) yl12 ZLAG12 (y - perdy) yl13 ZLAG13 (y - perdy) RESID.y PRED.y - ACTUAL.y ERROR.y PRED.y - y Ada Variasi pada metode kuadrat bersyarat minimum, tergantung pada apakah pengamatan pada awal rangkaian digunakan untuk menghangatkan proses AR. Secara default, metode kuadrat terkecil AR menggunakan semua pengamatan dan mengasumsikan angka nol untuk kelambatan awal istilah autoregresif. Dengan menggunakan opsi M, Anda dapat meminta AR menggunakan metode kuadrat tanpa syarat (ULS) atau maximum-likelihood (ML). Misalnya, Diskusi tentang metode ini diberikan di bagian AR Initial Conditions. Dengan menggunakan opsi MCLS n, Anda dapat meminta agar n observasi pertama digunakan untuk menghitung perkiraan keterlambatan autoregressive awal. Dalam kasus ini, analisis dimulai dengan pengamatan n 1. Sebagai contoh: Anda dapat menggunakan makro AR untuk menerapkan model autoregresif ke variabel endogen, bukan ke istilah kesalahan, dengan menggunakan opsi TYPEV. Misalnya, jika Anda ingin menambahkan lima lintasan terakhir Y ke persamaan pada contoh sebelumnya, Anda dapat menggunakan AR untuk menghasilkan parameter dan tertinggal dengan menggunakan pernyataan berikut: Pernyataan sebelumnya menghasilkan output yang ditunjukkan pada Gambar 18.60. Gambar 18.60 DAFTAR Opsi Output untuk model AR Y Model ini memprediksi Y sebagai kombinasi linear X1, X2, intercept, dan nilai Y dalam lima periode terakhir. Vector Autoregression Tidak Terikat Untuk memodelkan istilah kesalahan dari satu himpunan persamaan sebagai proses autoregresif vektor, gunakan bentuk makro AR berikut setelah persamaan: Nilai processname adalah nama yang Anda berikan agar AR digunakan dalam membuat nama untuk autoregresif. Parameter. Anda dapat menggunakan makro AR untuk memodelkan beberapa proses AR yang berbeda untuk rangkaian persamaan yang berbeda dengan menggunakan nama proses yang berbeda untuk setiap rangkaian. Nama proses memastikan bahwa nama variabel yang digunakan adalah unik. Gunakan nilai processname singkat untuk proses jika estimasi parameter ditulis ke kumpulan data output. Makro AR mencoba untuk membangun nama parameter kurang dari atau sama dengan delapan karakter, namun ini dibatasi oleh panjang nama proses. Yang digunakan sebagai awalan untuk nama parameter AR. Nilai variablelist adalah daftar variabel endogen untuk persamaan. Sebagai contoh, anggaplah bahwa kesalahan untuk persamaan Y1, Y2, dan Y3 dihasilkan oleh proses autoregresif vektor orde kedua. Anda dapat menggunakan pernyataan berikut: yang menghasilkan berikut untuk Y1 dan kode serupa untuk Y2 dan Y3: Hanya metode kuadrat bersyarat minimum (MCLS atau MCLS n) yang dapat digunakan untuk proses vektor. Anda juga dapat menggunakan bentuk yang sama dengan batasan bahwa matriks koefisien menjadi 0 pada kelambatan yang dipilih. Sebagai contoh, pernyataan berikut menerapkan proses vektor orde ketiga ke persamaan kesalahan dengan semua koefisien pada lag 2 dibatasi sampai 0 dan dengan koefisien pada lags 1 dan 3 tidak dibatasi: Anda dapat memodelkan tiga seri Y1Y3 sebagai proses autoregresif vektor. Dalam variabel bukan pada kesalahan dengan menggunakan opsi TYPEV. Jika Anda ingin memodelkan Y1Y3 sebagai fungsi nilai-nilai masa lalu Y1Y3 dan beberapa variabel atau konstanta eksogen, Anda dapat menggunakan AR untuk menghasilkan pernyataan untuk istilah lag. Tuliskan persamaan untuk setiap variabel untuk bagian model yang tidak sesuai, dan kemudian hubungi AR dengan opsi TYPEV. Misalnya, Bagian nonautoregresif dari model dapat menjadi fungsi dari variabel eksogen, atau dapat mencegat parameter. Jika tidak ada komponen eksogen terhadap model autoregression vektor, termasuk tidak ada penyadapan, maka tetapkan nol ke masing-masing variabel. Harus ada tugas untuk masing-masing variabel sebelum AR dipanggil. Contoh ini memodelkan vektor Y (Y1 Y2 Y3) sebagai fungsi linier hanya nilainya dalam dua periode sebelumnya dan vektor error noise putih. Model memiliki 18 (3 3 3 3) parameter. Sintaks dari AR Makro Ada dua kasus sintaks dari AR macro. Ketika pembatasan pada proses AR vektor tidak diperlukan, sintaks makro AR memiliki bentuk umum yang menentukan awalan AR yang akan digunakan dalam membangun nama variabel yang diperlukan untuk menentukan proses AR. Jika endolist tidak ditentukan, daftar endogen akan diberi nama default. Yang harus menjadi nama persamaan dimana proses kesalahan AR akan diterapkan. Nilai nama tidak boleh melebihi 32 karakter. Adalah urutan proses AR. Menentukan daftar persamaan dimana proses AR diterapkan. Jika lebih dari satu nama diberikan, proses vektor yang tidak terbatas dibuat dengan residu struktural dari semua persamaan yang disertakan sebagai regresor pada masing-masing persamaan. Jika tidak ditentukan, default endolist akan diberi nama. Menentukan daftar kelambatan di mana istilah AR harus ditambahkan. Koefisien dari syarat pada lags yang tidak terdaftar ditetapkan ke 0. Semua lags yang tercantum harus kurang dari atau sama dengan nlag. Dan pasti tidak ada duplikat. Jika tidak ditentukan, laglist default untuk semua lags 1 sampai nlag. Menentukan metode estimasi untuk diimplementasikan. Nilai M yang valid adalah CLS (perkiraan kuadrat terkecil), ULS (taksiran kuadrat terkecil), dan ML (perkiraan kemungkinan maksimum). MCLS adalah default Hanya MCLS yang diperbolehkan bila lebih dari satu persamaan ditentukan. Metode ULS dan ML tidak didukung untuk model AR vektor oleh AR. Menentukan bahwa proses AR harus diterapkan pada variabel endogen sendiri dan bukan pada residu struktural dari persamaan. Autoregression Vector yang Dibatasi Anda dapat mengontrol parameter mana yang termasuk dalam proses, membatasi hingga 0 parameter yang tidak Anda sertakan. Pertama, gunakan AR dengan opsi DEFER untuk mendeklarasikan daftar variabel dan menentukan dimensi proses. Kemudian, gunakan panggilan AR tambahan untuk menghasilkan istilah untuk persamaan yang dipilih dengan variabel terpilih pada kelambatan yang dipilih. Sebagai contoh, Persamaan kesalahan yang dihasilkan adalah sebagai berikut: Model ini menyatakan bahwa kesalahan untuk Y1 bergantung pada kesalahan Y1 dan Y2 (tapi bukan Y3) pada kedua lag 1 dan 2, dan bahwa kesalahan untuk Y2 dan Y3 bergantung pada kesalahan Kesalahan sebelumnya untuk ketiga variabel, tapi hanya pada lag 1. AR Macro Syntax for Restricted Vector AR Salah satu penggunaan AR dapat digunakan untuk menerapkan pembatasan pada proses AR vektor dengan memanggil AR beberapa kali untuk menentukan persyaratan AR yang berbeda dan tertinggal untuk perbedaan. Persamaan. Panggilan pertama memiliki bentuk umum yang menentukan awalan AR yang akan digunakan dalam membangun nama variabel yang diperlukan untuk menentukan proses AR vektor. Menentukan urutan proses AR. Menentukan daftar persamaan dimana proses AR diterapkan. Menentukan bahwa AR bukan untuk menghasilkan proses AR tapi menunggu informasi lebih lanjut yang ditentukan dalam panggilan AR nanti dengan nilai nama yang sama. Panggilan berikutnya memiliki bentuk umum sama seperti pada panggilan pertama. Menentukan daftar persamaan dimana spesifikasi dalam panggilan AR ini harus diterapkan. Hanya nama yang ditentukan dalam nilai endolist dari panggilan pertama untuk nilai nama yang dapat muncul dalam daftar persamaan dalam eqlist. Menentukan daftar persamaan yang residu struktural tertinggal harus dimasukkan sebagai regresor dalam persamaan di eqlist. Hanya nama dalam endolist dari panggilan pertama untuk nilai nama yang bisa muncul di varlist. Jika tidak ditentukan, varlist default ke endolist. Menentukan daftar kelambatan di mana istilah AR harus ditambahkan. Koefisien dari syarat pada lag tidak terdaftar ditetapkan ke 0. Semua lags yang tercantum harus kurang dari atau sama dengan nilai nlag. Dan pasti tidak ada duplikat. Jika tidak ditentukan, default laglist untuk semua lags 1 sampai nlag. MA Makro MA makro SAS menghasilkan pernyataan pemrograman untuk MODEL PROC untuk model rata-rata bergerak. Makalah MA adalah bagian dari perangkat lunak SASETS, dan tidak ada opsi khusus yang diperlukan untuk menggunakan makro. Proses kesalahan rata-rata bergerak dapat diterapkan pada kesalahan persamaan struktural. Sintaks makro MA sama dengan makro AR kecuali tidak ada argumen TYPE. Bila Anda menggunakan kombinasi makro MA dan AR, makro MA harus mengikuti makro AR. Pernyataan SASIML berikut menghasilkan proses kesalahan ARMA (1, (1 3)) dan menyimpannya di kumpulan data MADAT2. Pernyataan PROC MODEL berikut digunakan untuk memperkirakan parameter model ini dengan menggunakan struktur kesalahan likelihood maksimum: Perkiraan parameter yang dihasilkan oleh langkah ini ditunjukkan pada Gambar 18.61. Gambar 18.61 Perkiraan dari Proses ARMA (1, (1 3)) Ada dua kasus sintaks untuk makro MA. Ketika pembatasan pada proses MA vektor tidak diperlukan, sintaks makro MA memiliki bentuk umum yang menentukan awalan untuk digunakan oleh MA dalam membangun nama variabel yang diperlukan untuk menentukan proses MA dan merupakan endolist default. Adalah urutan proses MA. Menentukan persamaan dimana proses MA diterapkan. Jika lebih dari satu nama diberikan, estimasi CLS digunakan untuk proses vektor. Menentukan kelambatan dimana syarat MA ditambahkan. Semua lags yang tercantum harus kurang dari atau sama dengan nlag. Dan pasti tidak ada duplikat. Jika tidak ditentukan, laglist default untuk semua lags 1 sampai nlag. Menentukan metode estimasi untuk diimplementasikan. Nilai M yang valid adalah CLS (perkiraan kuadrat terkecil), ULS (taksiran kuadrat terkecil), dan ML (perkiraan kemungkinan maksimum). MCLS adalah default Hanya MCLS yang diperbolehkan bila lebih dari satu persamaan ditentukan dalam endolist. MA Makro Sintaks untuk Vector Beralih Rata-rata Penggunaan MA alternatif diperbolehkan menerapkan pembatasan pada proses MA vektor dengan menghubungi MA beberapa kali untuk menentukan persyaratan MA dan lag yang berbeda untuk persamaan yang berbeda. Panggilan pertama memiliki bentuk umum yang menentukan awalan untuk digunakan oleh MA dalam membangun nama variabel yang diperlukan untuk menentukan proses MA vektor. Menentukan urutan proses MA. Menentukan daftar persamaan dimana proses MA akan diterapkan. Menentukan bahwa MA bukan untuk menghasilkan proses MA tapi menunggu informasi lebih lanjut yang ditentukan di MA kemudian memanggil dengan nilai nama yang sama. Panggilan berikutnya memiliki bentuk umum sama seperti pada panggilan pertama. Menentukan daftar persamaan dimana spesifikasi dalam panggilan MA ini harus diterapkan. Menentukan daftar persamaan yang residu struktural tertinggal harus dimasukkan sebagai regresor dalam persamaan di eqlist. Menentukan daftar kelambanan di mana syarat MA ditambahkan.Regresi13 dengan SAS13 Bab 2 8211 Diagnosa Regresi Bab Garis Besar 2.0 Diagnosa Regresi 2.1 Data Tidak Biasa dan Berpengaruh 2.2 Uji Normalitas Residu 2.3 Tes pada Kesalahan Varians Nonkonstan 2.4 Pengujian pada Multikolinearitas 2.5 Pengujian terhadap Nonlinier 2.6 Spesifikasi Model 2.7 Isu Kemerdekaan 2.8 Ringkasan 2.9 Untuk informasi lebih lanjut 2.0 Diagnosa Regresi Pada bab terakhir, kita belajar bagaimana melakukan regresi linier biasa dengan SAS, yang dilengkapi dengan metode untuk memeriksa distribusi variabel untuk memeriksa non- Biasanya terdistribusi sebagai variabel pertama melihat asumsi dalam regresi. Tanpa memverifikasi bahwa data Anda telah memenuhi asumsi regresi, hasil Anda mungkin menyesatkan. Bab ini akan membahas bagaimana Anda dapat menggunakan SAS untuk menguji apakah data Anda memenuhi asumsi regresi linier. Secara khusus, kita akan mempertimbangkan asumsi berikut. Linearitas 8211 hubungan antara prediktor dan variabel hasil harus Normalitas linier 8211 kesalahan harus terdistribusi secara normal 8211 secara teknis normal diperlukan hanya agar t-test valid, estimasi koefisien hanya mensyaratkan bahwa kesalahan identik dan independen. Perbedaan homogenitas varians (homoscedasticity) 8211 varians kesalahan harus konstan Kemerdekaan 8211 kesalahan yang terkait dengan satu pengamatan tidak berkorelasi dengan kesalahan pengamatan lainnya Kesalahan pada variabel 8211 variabel prediktor diukur tanpa kesalahan (kita akan membahas hal ini di Bab 4 ) Model spesifikasi 8211 model harus ditentukan dengan benar (termasuk semua variabel yang relevan, dan tidak termasuk variabel yang tidak relevan) Selain itu, ada beberapa masalah yang dapat timbul selama analisis bahwa, walaupun secara ketat, bukan asumsi regresi, tidak ada yang kurang, dari Keprihatinan besar untuk analis regresi. Mempengaruhi 8.211 observasi individu yang memberikan pengaruh yang tidak semestinya pada koefisien Collinearity 8211 prediktor yang sangat collinear, yaitu hubungan linier, dapat menyebabkan masalah dalam memperkirakan koefisien regresi. Banyak metode grafis dan tes numerik telah dikembangkan selama bertahun-tahun untuk diagnostik regresi. Dalam bab ini, kita akan mengeksplorasi metode ini dan menunjukkan bagaimana cara memverifikasi asumsi regresi dan mendeteksi potensi masalah dengan menggunakan SAS. 2.1 Data yang tidak biasa dan berpengaruh Sebuah observasi tunggal yang secara substansial berbeda dari semua pengamatan lainnya dapat membuat perbedaan besar dalam hasil analisis regresi Anda. Jika pengamatan tunggal (atau kelompok pengamatan kecil) secara substansial mengubah hasil Anda, Anda ingin mengetahui hal ini dan menyelidiki lebih lanjut. Ada tiga cara pengamatan yang tidak biasa. Outlier Dalam regresi linier, outlier adalah observasi dengan residu besar. Dengan kata lain, ini adalah pengamatan yang nilai variabel dependennya tidak biasa diberikan nilainya pada variabel prediktor. Outlier mungkin menunjukkan keanehan sampel atau mungkin mengindikasikan adanya kesalahan entri data atau masalah lainnya. Leverage. Pengamatan dengan nilai ekstrim pada variabel prediktor disebut titik dengan leverage tinggi. Leverage adalah ukuran seberapa jauh sebuah observasi menyimpang dari mean dari variabel tersebut. Poin leverage ini dapat berpengaruh terhadap estimasi koefisien regresi. Pengaruh. Pengamatan dikatakan berpengaruh jika menghilangkan pengamatan secara substansial mengubah perkiraan koefisien. Pengaruh dapat dianggap sebagai produk dari leverage dan outlierness. Bagaimana kita bisa mengidentifikasi tiga jenis pengamatan ini? Mari8217s melihat contoh dataset yang disebut kejahatan. Dataset ini muncul dalam Statistical Methods for Social Sciences, Edisi Ketiga oleh Alan Agresti dan Barbara Finlay (Prentice Hall, 1997). Variabelnya adalah state id (sid), nama negara (negara bagian), kejahatan kekerasan per 100.000 orang (kejahatan), pembunuhan per 1.000.000 (pembunuhan), persentase penduduk yang tinggal di wilayah metropolitan (pctmetro), persentase penduduk yang Putih (pctwhite), persentase penduduk dengan pendidikan sekolah menengah atas atau di atas (persen), persen penduduk yang hidup di bawah garis kemiskinan (kemiskinan), dan persentase penduduk yang merupakan orang tua tunggal (single parent). Di bawah ini kita menggunakan isi proc dan proc berarti untuk mempelajari lebih lanjut tentang file data ini. Mari kita mengatakan bahwa kita ingin memprediksi kejahatan oleh pctmetro. Kemiskinan. Dan single. Artinya, kita ingin membangun model regresi linier antara variabel respon kejahatan dan variabel independen pctmetro. Kemiskinan dan lajang Pertama-tama kita akan melihat plot scatter of crime terhadap masing-masing variabel prediktor sebelum analisis regresi sehingga kita akan memiliki beberapa gagasan tentang potensi masalah. Kita bisa membuat matriks scatterplot dari variabel-variabel ini seperti yang ditunjukkan di bawah ini. Grafik kejahatan dengan variabel lain menunjukkan beberapa masalah potensial. Di setiap plot, kita melihat titik data yang jauh dari titik data lainnya. Kita bisa membuat grafik kejahatan individual dengan pctmetro dan kemiskinan dan single sehingga kita bisa melihat lebih baik scatterplots ini. Kami akan menambahkan opsi pointlabel (quotstatequot) dalam pernyataan simbol untuk mencentang nama negara dan bukan sebuah titik. Semua plot tersebar menunjukkan bahwa pengamatan untuk dc negara adalah titik yang memerlukan perhatian ekstra karena ia berdiri jauh dari semua poin lainnya. Kita akan mengingatnya saat kita melakukan analisis regresi. Sekarang mari mencoba perintah regresi yang memprediksi kejahatan dari pctmetro, kemiskinan dan lajang. Kami akan melangkah selangkah demi selangkah untuk mengidentifikasi semua poin yang berpotensi tidak biasa atau berpengaruh sesudahnya. Kami akan menampilkan beberapa statistik yang akan kami perlukan untuk beberapa analisis berikut ke dataset yang disebut crime1res. Dan kami akan menjelaskan setiap statistik secara bergantian. Statistik ini termasuk residu siswa (disebut r), leverage (disebut lev), Cook8217s D (disebut cd) dan DFFITS (disebut dffit). Kami meminta semua statistik ini sekarang agar bisa ditempatkan dalam satu dataset yang akan kami gunakan untuk beberapa contoh berikutnya. Jika tidak, kita bisa menjalankan kembali proc reg setiap kali kita menginginkan statistik baru dan menyimpan statistik itu ke file data keluaran lainnya. Letkol memeriksa residu siswa sebagai cara pertama untuk mengidentifikasi outlier. Kami meminta residu siswa dalam regresi di atas dalam pernyataan keluaran dan menamai mereka r. Kita bisa memilih nama yang kita suka asalkan itu adalah nama variabel SAS yang legal. Residu Studentized adalah jenis residu standar yang dapat digunakan untuk mengidentifikasi outlier. Letkol memeriksa residu dengan tangkai daun dan daun. Kita melihat tiga residu yang bertahan, -3.57, 2.62 dan 3.77. Tampilan batang dan daun membantu kita melihat beberapa outlier potensial, tapi kita tidak dapat melihat negara mana (pengamatan mana) yang berpotensi outlier. Biarkan sortir menyortir data residu dan menunjukkan 10 residu terbesar dan 10 terkecil beserta id negara dan nama negara. Kita harus memperhatikan residu mahasiswa yang melebihi 2 atau -2, dan bahkan lebih memperhatikan residu yang melebihi 2,5 atau -2,5 dan bahkan lebih memperhatikan residu yang melebihi 3 atau -3. Hasil ini menunjukkan bahwa DC dan MS adalah pengamatan yang paling mengkhawatirkan, diikuti oleh FL. Mari menunjukkan semua variabel dalam regresi kita dimana residu siswa melebihi 2 atau -2, yaitu di mana nilai absolut residual melebihi 2. Kita melihat data untuk tiga calon potensial yang kita identifikasi, yaitu Florida, Mississippi dan Washington DC Looking Dengan hati-hati pada ketiga pengamatan ini, kita tidak dapat menemukan kesalahan entri data, walaupun kita mungkin ingin melakukan analisis regresi lain dengan titik ekstrim seperti DC dihapus. Kami akan kembali ke masalah ini nanti. Sekarang mari kita lihat leverage8217 untuk mengidentifikasi pengamatan yang akan memiliki pengaruh besar yang potensial terhadap perkiraan koefisien regresi. Umumnya, satu titik dengan leverage lebih besar dari (2k2) n harus diperiksa secara hati-hati, di mana k adalah jumlah prediktor dan n adalah jumlah observasi. Dalam contoh kita ini bekerja pada (232) 51, 15686275. Jadi kita bisa melakukan hal berikut. Seperti yang telah kita lihat, DC adalah pengamatan bahwa keduanya memiliki leverage residual dan besar yang besar. Poin tersebut berpotensi paling berpengaruh. Kita dapat membuat plot yang menunjukkan pengaruh dengan kuadrat sisa dan mencari pengamatan yang sama tinggi pada kedua tindakan ini. Kita bisa melakukan ini dengan menggunakan plot leverage versus residual-kuadrat. Dengan menggunakan kuadrat sisa dan bukan residual itu sendiri, grafik dibatasi ke kuadran pertama dan posisi relatif titik data dipertahankan. Ini adalah cara cepat untuk memeriksa pengamatan dan outlier berpengaruh potensial pada saat bersamaan. Kedua jenis poin ini sangat memprihatinkan bagi kita. Inti untuk DC menarik perhatian kita dengan memiliki kedua kuadrat residu tertinggi dan leverage tertinggi, menunjukkan hal itu bisa sangat berpengaruh. Intinya untuk MS hampir sama besar dengan sisa kuadrat, tapi tidak memiliki pengaruh yang sama. Kami akan melihat pengamatan tersebut dengan lebih hati-hati dengan mencantumkannya di bawah ini. Sekarang, mari beralih ke ukuran pengaruhnya secara keseluruhan. Secara khusus, mari kita lihat Cook8217s D dan DFITS. Langkah-langkah ini menggabungkan informasi tentang residual dan leverage. Cook8217s D dan DFITS sangat mirip kecuali bahwa skala mereka berbeda, namun memberi kami jawaban yang sama. Nilai terendah yang bisa diasumsikan Cook8217s D adalah nol, dan semakin tinggi level Cook8217s D, semakin penting intinya. Titik potong konvensional adalah 4n. Kita dapat mencantumkan pengamatan di atas titik cut-off dengan melakukan hal berikut. Kami melihat bahwa Cook8217s D untuk DC adalah yang terbesar. Sekarang mari kita lihat DFITS. Titik potong konvensional untuk DFITS adalah 2sqrt (kn). DFITS dapat berupa positif atau negatif, dengan angka mendekati nol yang sesuai dengan titik yang memiliki pengaruh kecil atau nol. Seperti yang kita lihat, DFITS juga menunjukkan bahwa DC adalah observasi yang paling berpengaruh. Langkah-langkah di atas adalah ukuran pengaruh umum. Anda juga dapat mempertimbangkan ukuran pengaruh yang lebih spesifik yang menilai bagaimana masing-masing koefisien diubah dengan menghapus pengamatan. Ukuran ini disebut DFBETA dan dibuat untuk masing-masing prediktor. Rupanya ini lebih bersifat komputasi intensif daripada statistik ringkasan seperti Cook8217s D karena semakin banyak prediktor model, semakin banyak perhitungan yang mungkin dilakukan. Kita dapat membatasi perhatian kita hanya pada prediktor yang paling kita pedulikan dan untuk melihat seberapa baik perilaku prediktor tersebut. Di SAS, kita perlu menggunakan pernyataan keluaran keluaran OutStatistics untuk menghasilkan DFBETAs untuk masing-masing prediktor. Nama untuk variabel baru yang dibuat dipilih oleh SAS secara otomatis dan dimulai dengan DFB. Ini menciptakan tiga variabel, DFBpctmetro. DFBpoverty dan DFBsingle. Let8217s melihat 5 nilai pertama. Nilai untuk DFBsingle untuk Alaska adalah 0,14, yang berarti bahwa dengan disertakan dalam analisis (dibandingkan dengan pengecualian), Alaska meningkatkan koefisien untuk satu dengan 0,14 kesalahan standar, yaitu 0,14 kali kesalahan standar untuk BSingle atau dengan (0,14 15,5 ). Karena dimasukkannya pengamatan dapat berkontribusi terhadap peningkatan atau penurunan koefisien regresi, DFBETAs dapat berupa positif atau negatif. Nilai DFBETA melebihi 2sqrt (n) perlu diselidiki lebih lanjut. In this example, we would be concerned about absolute values in excess of 2sqrt(51) or 0.28. We can plot all three DFBETA values against the state id in one graph shown below. We add a line at 0.28 and -0.28 to help us see potentially troublesome observations. We see the largest value is about 3.0 for DFsingle . We can repeat this graph with the pointlabel (quotstatequot) option on the symbol1 statement to label the points. With the graph above we can identify which DFBeta is a problem, and with the graph below we can associate that observation with the state that it originates from. Now let8217s list those observations with DFBsingle larger than the cut-off value. Again, we see that DC is the most problematic observation. The following table summarizes the general rules of thumb we use for these measures to identify observations worthy of further investigation (where k is the number of predictors and n is the number of observations). Washington D.C. has appeared as an outlier as well as an influential point in every analysis. Because Washington D.C. is really not a state, we can use this to justify omitting it from the analysis, saying that we really wish to just analyze states. First, let8217s repeat our analysis including DC. Now, let8217s run the analysis omitting DC by including a where statement (here ne stands for quotnot equal toquot but you could also use to mean the same thing). As we expect, deleting DC made a large change in the coefficient for single . The coefficient for single dropped from 132.4 to 89.4. After having deleted DC, we would repeat the process we have illustrated in this section to search for any other outlying and influential observations. In this section, we explored a number of methods of identifying outliers and influential points. In a typical analysis, you would probably use only some of these methods. Generally speaking, there are two types of methods for assessing outliers: statistics such as residuals, leverage, Cook8217s D and DFITS, that assess the overall impact of an observation on the regression results, and statistics such as DFBETA that assess the specific impact of an observation on the regression coefficients. In our example, we found that DC was a point of major concern. We performed a regression with it and without it and the regression equations were very different. We can justify removing it from our analysis by reasoning that our model is to predict crime rate for states, not for metropolitan areas. 2.2 Tests for Normality of Residuals One of the assumptions of linear regression analysis is that the residuals are normally distributed. This assumption assures that the p-values for the t-tests will be valid. As before, we will generate the residuals (called r ) and predicted values (called fv ) and put them in a dataset (called elem1res ). We will also keep the variables api00 . meals . ell and emer in that dataset. Let8217s use the elemapi2 data file we saw in Chapter 1 for these analyses. Let8217s predict academic performance ( api00 ) from percent receiving free meals ( meals ), percent of English language learners ( ell ), and percent of teachers with emergency credentials ( emer ). Below we use proc kde to produce a kernel density plot. kde stands for kernel density estimate. It can be thought as a histogram with narrow bins and a moving average. Proc univariate will produce a normal quantile graph. qqplot plots the quantiles of a variable against the quantiles of a normal distribution. qqplot is most sensitive to non-normality near two tails. and probplot As you see below, the qqplot command shows a slight deviation from normal at the upper tail, as can be seen in the kde above. We can accept that the residuals are close to a normal distribution. Severe outliers consist of those points that are either 3 inter-quartile-ranges below the first quartile or 3 inter-quartile-ranges above the third quartile. The presence of any severe outliers should be sufficient evidence to reject normality at a 5 significance level. Mild outliers are common in samples of any size. In our case, we don8217t have any severe outliers and the distribution seems fairly symmetric. The residuals have an approximately normal distribution. (See the output of the proc univariate above.) In the Shapiro-Wilk W test for normality, the p-value is based on the assumption that the distribution is normal. In our example, the p-value is very large (0.51), indicating that we cannot reject that r is normally distributed. (See the output of the proc univariate above.) 2.3 Tests for Heteroscedasticity One of the main assumptions for the ordinary least squares regression is the homogeneity of variance of the residuals. If the model is well-fitted, there should be no pattern to the residuals plotted against the fitted values. If the variance of the residuals is non-constant, then the residual variance is said to be quotheteroscedastic.quot There are graphical and non-graphical methods for detecting heteroscedasticity. A commonly used graphical method is to plot the residuals versus fitted (predicted) values. Below we use a plot statement in the proc reg . The r. and p. tell SAS to calculate the residuals ( r. ) and predicted values ( p. ) for use in the plot. We see that the pattern of the data points is getting a little narrower towards the right end, which is an indication of mild heteroscedasticity. Now let8217s look at a test for heteroscedasticity, the White test. The White test tests the null hypothesis that the variance of the residuals is homogenous. Therefore, if the p-value is very small, we would have to reject the hypothesis and accept the alternative hypothesis that the variance is not homogenous. We use the spec option on the model statement to obtain the White test. While the White test is significant, the distribution of the residuals in the residual versus fitted plot did not seem overly heteroscedastic. Consider another example where we use enroll as a predictor. Recall that we found enroll to be skewed to the right in Chapter 1. As you can see, this example shows much more serious heteroscedasticity. As we saw in Chapter 1, the variable enroll was skewed considerably to the right, and we found that by taking a log transformation, the transformed variable was more normally distributed. Below we transform enroll . run the regression and show the residual versus fitted plot. The distribution of the residuals is much improved. Certainly, this is not a perfect distribution of residuals, but it is much better than the distribution with the untransformed variable. Finally, let8217s revisit the model we used at the start of this section, predicting api00 from meals . ell and emer . Using this model, the distribution of the residuals looked very nice and even across the fitted values. What if we add enroll to this model Will this automatically ruin the distribution of the residuals Let8217s add it and see. As you can see, the distribution of the residuals looks fine, even after we added the variable enroll . When we had just the variable enroll in the model, we did a log transformation to improve the distribution of the residuals, but when enroll was part of a model with other variables, the residuals looked good enough so that no transformation was needed. This illustrates how the distribution of the residuals, not the distribution of the predictor, was the guiding factor in determining whether a transformation was needed. 2.4 Tests for Collinearity When there is a perfect linear relationship among the predictors, the estimates for a regression model cannot be uniquely computed. The term collinearity describes two variables are near perfect linear combinations of one another. When more than two variables are involved, it is often called multicollinearity, although the two terms are often used interchangeably. The primary concern is that as the degree of multicollinearity increases, the regression model estimates of the coefficients become unstable and the standard errors for the coefficients can get wildly inflated. In this section, we will explore some SAS options used with the model statement that help to detect multicollinearity. We can use the vif option to check for multicollinearity. vif stands for variance inflation factor . As a rule of thumb, a variable whose VIF values is greater than 10 may merit further investigation. Tolerance, defined as 1VIF, is used by many researchers to check on the degree of collinearity. A tolerance value lower than 0.1 is comparable to a VIF of 10. It means that the variable could be considered as a linear combination of other independent variables. The tol option on the model statement gives us these values. Let8217s first look at the regression we did from the last section, the regression model predicting api00 from meals, ell and emer . and use the vif and tol options with the model statement. The VIFs look fine here. Here is an example where the VIFs are more worrisome. In this example, the VIF and tolerance (1VIF) values for avged gradsch and colgrad are worrisome. All of these variables measure education of the parents and the very high VIF values indicate that these variables are possibly redundant. For example, after you know gradsch and colgrad . you probably can predict avged very well. In this example, multicollinearity arises because we have put in too many variables that measure the same thing: parent education. Let8217s omit one of the parent education variables, avged . Note that the VIF values in the analysis below appear much better. Also, note how the standard errors are reduced for the parent education variables, gradsch and colgrad . This is because the high degree of collinearity caused the standard errors to be inflated. With the multicollinearity eliminated, the coefficient for gradsch . which had been non-significant, is now significant. Let8217s introduce another option regarding collinearity. The collinoint option displays several different measures of collinearity. For example, we can test for collinearity among the variables we used in the two examples above. Note that if you use the collin option, the intercept will be included in the calculation of the collinearity statistics, which is not usually what you want. The collinoint option excludes the intercept from those calculations, but it is still included in the calculation of the regression. We now remove avged and see the collinearity diagnostics improve considerably. The condition number is a commonly used index of the global instability of the regression coefficients 8212 a large condition number, 10 or more, is an indication of instability. 2.5 Tests on Nonlinearity When we do linear regression, we assume that the relationship between the response variable and the predictors is linear. This is the assumption of linearity. If this assumption is violated, the linear regression will try to fit a straight line to data that does not follow a straight line. Checking the linear assumption in the case of simple regression is straightforward, since we only have one predictor. All we have to do is a scatter plot between the response variable and the predictor to see if nonlinearity is present, such as a curved band or a big wave-shaped curve. For example, let us use a data file called nations.sav that has data about a number of nations around the world. Below we look at the proc contents for this file to see the variables in the file (Note that the position option tells SAS to list the variables in the order that they are in the data file.) Let8217s look at the relationship between GNP per capita ( gnpcap ) and births ( birth ). Below if we look at the scatterplot between gnpcap and birth . we can see that the relationship between these two variables is quite non-linear. We added a regression line to the chart, and you can see how poorly the line fits this data. Also, if we look at the residuals by predicted plot, we see that the residuals are not nearly homoscedastic, due to the non-linearity in the relationship between gnpcap and birth . Now we are going to modify the above scatterplot by adding a lowess (also called quotloessquot) smoothing line. By default, SAS will make four graphs, one for smoothing of 0.1, 0.2, 0.3 and 0.4. We show only the graph with the 0.4 smooth. lt some output omitted gt The lowess line fits much better than the OLS linear regression. In trying to see how to remedy these, we notice that the gnpcap scores are quite skewed with most values being near 0, and a handful of values of 10,000 and higher. This suggests to us that some transformation of the variable may be useful. One of the commonly used transformations is a log transformation. Let8217s try it below. As you see, the scatterplot between lgnpcap and birth looks much better with the regression line going through the heart of the data. Also, the plot of the residuals by predicted values look much more reasonable. This section has shown how you can use scatterplots to diagnose problems of non-linearity, both by looking at the scatterplots of the predictor and outcome variable, as well as by examining the residuals by predicted values. These examples have focused on simple regression however, similar techniques would be useful in multiple regression. However, when using multiple regression, it would be more useful to examine partial regression plots instead of the simple scatterplots between the predictor variables and the outcome variable. 2.6 Model Specification A model specification error can occur when one or more relevant variables are omitted from the model or one or more irrelevant variables are included in the model. If relevant variables are omitted from the model, the common variance they share with included variables may be wrongly attributed to those variables, and the error term is inflated. On the other hand, if irrelevant variables are included in the model, the common variance they share with included variables may be wrongly attributed to them. Model specification errors can substantially affect the estimate of regression coefficients. Consider the model below. This regression suggests that as class size increases the academic performance increases. Before we publish results saying that increased class size is associated with higher academic performance, let8217s check the model specification. There are a couple of methods to detect specification errors. A link test performs a model specification test for single-equation models. It is based on the idea that if a regression is properly specified, one should not be able to find any additional independent variables that are significant except by chance. To conduct this test, you need to obtain the fitted values from your regression and the squares of those values. The model is then refit using these two variables as predictors. The fitted value should be significant because it is the predicted value. One the other hand, the fitted values squared shouldn8217t be significant, because if our model is specified correctly, the squared predictions should not have much of explanatory power. That is, we wouldn8217t expect the fitted value squared to be a significant predictor if our model is specified correctly. So we will be looking at the p-value for the fitted value squared. Let8217s try adding one more variable, meals . to the above model and then run the link test again. The link test is once again non-significant. Note that after including meals and full . the coefficient for class size is no longer significant. While acsk3 does have a positive relationship with api00 when no other variables are in the model, when we include, and hence control for, other important variables, acsk3 is no longer significantly related to api00 and its relationship to api00 is no longer positive . 2.7 Issues of Independence The statement of this assumption is that the errors associated with one observation are not correlated with the errors of any other observation cover several different situations. Consider the case of collecting data from students in eight different elementary schools. It is likely that the students within each school will tend to be more like one another that students from different schools, that is, their errors are not independent. We will deal with this type of situation in Chapter 4. Another way in which the assumption of independence can be broken is when data are collected on the same variables over time. Let8217s say that we collect truancy data every semester for 12 years. In this situation it is likely that the errors for observation between adjacent semesters will be more highly correlated than for observations more separated in time. This is known as autocorrelation. When you have data that can be considered to be time-series, you should use the dw option that performs a Durbin-Watson test for correlated residuals. We don8217t have any time-series data, so we will use the elemapi2 dataset and pretend that snum indicates the time at which the data were collected. We will sort the data on snum to order the data according to our fake time variable and then we can run the regression analysis with the dw option to request the Durbin-Watson test. The Durbin-Watson statistic has a range from 0 to 4 with a midpoint of 2. The observed value in our example is less than 2, which is not surprising since our data are not truly time-series. In this chapter, we have used a number of tools in SAS for determining whether our data meets the regression assumptions. Below, we list the major commands we demonstrated organized according to the assumption the command was shown to test. Detecting Unusual and Influential Data scatterplots of the dependent variables versus the independent variable looking at the largest values of the studentized residuals, leverage, Cook8217s D, DFFITS and DFBETAs Tests for Normality of Residuals Tests for Heteroscedasity kernel density plot quantile-quantile plots standardized normal probability plots Shapiro-Wilk W test scatterplot of residuals versus predicted (fitted) values White test Tests for Multicollinearity looking at VIF looking at tolerance Tests for Non-Linearity scatterplot of independent variable versus dependent variable Tests for Model Specification time series Durbin-Watson test 2.9 For more information
Bagaimana-stock-market-options-work
Pulse-options-auto-trading