Що таке: Т-тест

T-тест – це перевірка статистичної гіпотези, що використовується для визначення того, чи існує значна різниця між середніми значеннями двох груп. Цей тест особливо корисний, коли розміри вибірки невеликі та стандартне відхилення генеральної сукупності невідоме. T-тест заснований на t-розподілі Стьюдента, який враховує мінливість у невеликих вибірках. Він широко використовується в різних галузях, включаючи психологію, медицину та соціальні науки, для аналізу експериментальних даних та формулювання висновків про популяції.

Заголовок оголошення

Опис оголошення. Lorem ipsum dolor sit amet, consectetur adipiscing elit.

Види Т-тестів

Існує кілька типів Т-тестів, кожен із яких призначений для конкретних сценаріїв. Найбільш поширені типи включають Т-критерій для незалежних вибірок, Т-критерій для парних вибірок та Т-критерій для однієї вибірки. T-тест незалежних вибірок порівнює середні значення двох незалежних груп, таких як експериментальна та контрольна групи, в експерименті. З іншого боку, T-тест для парних вибірок порівнює середні значення з однієї й тієї групи в різний час, наприклад, результати до і після тестування. Нарешті, Т-тест однієї вибірки оцінює, чи відрізняється середнє значення окремої вибірки від відомого середнього значення для генеральної сукупності.

Допущення Т-тесту

Щоб T-тест дав достовірні результати, мають бути виконані певні припущення. По-перше, дані мають бути приблизно нормально розподілені, особливо для невеликих розмірів вибірки. По-друге, у разі Т-тесту незалежних вибірок зразки мають бути незалежними один від одного. По-третє, дисперсії двох порівнюваних груп повинні бути рівними, що можна перевірити за допомогою тесту Левена. Якщо ці припущення порушуються, альтернативні статистичні тести, такі як U-критерій Манна-Уітні, можуть виявитися більш відповідними.

Розрахунок Т-тесту

Розрахунок Т-тесту включає кілька етапів. Для Т-тесту незалежних вибірок формула має вигляд ( t = frac – bar> + frac>> ) , де ( bar ) і ( bar ) — середні вибіркові значення, ( s_p ) — об'єднане стандартне відхилення, а ( n_1 ) та ( n_2 ) – Розміри вибірки. Для Т-тесту парних вибірок формула має вигляд (t = frac>>), де (bar) – середнє значення різниць, (s_D) – стандартне відхилення різниць, а (n) – кількість пар.

Інтерпретація результатів Т-тесту

Інтерпретація результатів тесту T включає вивчення розрахованого значення t і відповідного значення p. Значення p вказує на ймовірність спостереження даних або чогось екстремального при нульовій гіпотезі, яка стверджує, що між груповими середніми немає істотної різниці. Загальний поріг значимості 0.05; якщо значення p менше цього порога, нульова гіпотеза відхиляється, що свідчить про існування значної різниці. Крім того, довірчі інтервали можуть дати глибше розуміння діапазону значень, які, ймовірно, містять справжню різницю між середніми значеннями.

Заголовок оголошення

Опис оголошення. Lorem ipsum dolor sit amet, consectetur adipiscing elit.

Застосування Т-тестів

T-тести широко застосовують у різних дослідницьких сценаріях. У клінічних випробуваннях дослідники можуть використовувати T-тести для порівняння ефективності нового препарату з плацебо. У освітніх дослідженнях T-тести можуть оцінювати вплив різних методів навчання успішність учнів. Крім того, у маркетингових дослідженнях компанії можуть використовувати T-тести для оцінки задоволеності клієнтів двома різними продуктами чи послугами. Універсальність T-тесту робить його фундаментальним інструментом для аналізу даних у різних дисциплінах.

Обмеження Т-тестів

Незважаючи на свою корисність, Т-тести мають обмеження.Одним із суттєвих обмежень є їхня чутливість до викидів, які можуть спотворити результати та призвести до невірних висновків. Крім того, T-тести припускають, що дані нормально розподілені, що не так, особливо при невеликих розмірах вибірки. Більш того, Т-тести не підходять для порівняння більш ніж двох груп; у таких випадках найбільш відповідним статистичним методом є ANOVA (дисперсійний аналіз). Дослідники повинні знати про ці обмеження під час планування досліджень та інтерпретації результатів.

Програмне забезпечення для проведення Т-тестів

p align="justify"> Різні статистичні програмні пакети можуть виконувати T-тести, роблячи аналіз більш доступним для дослідників. Популярні програмні опції включають R, Python (з такими бібліотеками, як SciPy та Statsmodels), SPSS та SAS. Ці інструменти не тільки спрощують процес обчислень, але й надають додаткові функції, такі як візуалізація даних та створення звітів. Використання програмного забезпечення може підвищити точність та ефективність статистичного аналізу, дозволяючи дослідникам зосередитись на інтерпретації результатів, а не на ручних обчисленнях.

Висновок з Т-тестів

Хоча Т-тест є потужним статистичним інструментом для порівняння середніх значень, дослідникам важливо розуміти його припущення, обмеження та відповідні застосування. Ретельно враховуючи ці фактори та використовуючи статистичне програмне забезпечення, дослідники можуть ефективно аналізувати свої дані та робити значні висновки зі своїх досліджень.

Заголовок оголошення

Опис оголошення. Lorem ipsum dolor sit amet, consectetur adipiscing elit.

Що таке: Т-тест - Druzhba.v.ua

Хоча є сотні тестів статистичних гіпотез, які ви можете використовувати, є лише невелика частина, яку вам може знадобитися використовувати в проекті машинного навчання.

У цьому пості ви знайдете шпаргалку для найпопулярніших тестів статистичних гіпотез для проекту машинного навчання з прикладами API Python.

Кожен статистичний тест представлений послідовно, включаючи:

  • Назва тесту.
  • Що перевіряє тест?
  • Ключові припущення тесту.
  • Як інтерпретується результат тесту.
  • Python API для використання тесту.

Зверніть увагу: коли справа доходить до таких припущень, як очікуваний розподіл даних або розмір вибірки, результати цього тесту, швидше за все, поступово погіршуватимуться, а не відразу стануть непридатними для використання, якщо припущення буде порушено.

Як правило, вибірки даних мають бути репрезентативними для предметної області та досить великими, щоб їх розподіл можна було аналізувати.

У деяких випадках дані можуть бути скориговані, щоб відповідати припущенням, наприклад, виправлення майже нормального розподілу до нормального шляхом видалення викидів або використання поправки до ступенів свободи у статистичному тесті, коли вибірки мають різну дисперсію, і це два приклади. приклади.

Зрештою, для конкретної проблеми може бути кілька тестів, наприклад. нормальність. Ми не можемо отримати чітких відповідей на запитання за допомогою статистики; натомість ми отримуємо ймовірні відповіді. Таким чином, ми можемо прийти до різних відповідей на те саме питання, розглядаючи його по-різному. Звідси необхідність проведення кількох різних тестів для вирішення деяких питань, які можуть виникнути у нас щодо даних.

Почніть свій проект з моєї нової книги "Статистика для машинного навчання", що включає покрокові посібники та файли вихідного коду Python для всіх. приклади.

  • Оновлення, листопад 2018: додано покращений огляд пройдених тестів.
  • Оновлення, листопад 2019 р.: додано повні робочі приклади кожного тесту Додайте тести часових рядів.

Огляд керівництва

Цей урок поділено на 5 частин; вони є:

  1. Тести на нормальність
    1. Тест Шапіро-Вілка
    2. Тест Д’Агостіно K^2
    3. Тест Андерсона-Дарлінга
    1. Коефіцієнт кореляції Пірсона
    2. Рангова кореляція Спірмена
    3. Рангова кореляція Кендалл
    4. Тест хі-квадрат
    1. Доповнений Дікі-Фуллер
    2. Квятковськи-Філліпс-Шмідт-Шин
    1. Т-критерій Стьюдента
    2. Парний t-критерій Стьюдента
    3. Аналіз дисперсії (ANOVA)
    4. Тест ANOVA з повторними вимірами
    1. U-тест Манна-Уітні
    2. Знаковий критерій Вілкоксона
    3. Тест Крускала-Уолліса H
    4. Тест Фрідмана

    1. Тести на нормальність

    У цьому розділі наведено статистичні тести, які ви можете використовувати, щоб перевірити, чи мають ваші дані розподіл Гауса.

    Тест Шапіро-Вілка

    Перевіряє, чи має вибірка даних розподіл Гауса.

    • H0: вибірка має розподіл Гауса.
    • H1: вибірка не має розподілу Гауса.
    # Заклад Shapiro-Wilk Normality Test від scipy.stats import shapiro data = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.637, -1. data) print('stat=%.3f, p=%.3f' % (stat, p)) if p > 0.05: print('Probably Gaussian') else: print('Probably not Gaussian')
    • Ніжне введення в тести на нормальність у Python
    • scipy.stats.shapiro
    • Тест Шапіро-Вілка у Вікіпедії

    Тест Д’Агостіно K^2

    Перевіряє, чи має вибірка даних розподіл Гауса.

    • H0: вибірка має розподіл Гауса.
    • H1: вибірка не має розподілу Гауса.
    # Example of the D'Agostino's K^2 Normality Test від scipy.stats import normaltest data = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1,639] = normaltest(data) print('stat=%.3f, p=%.3f' % (stat, p)) if p > 0.05: print('Probably Gaussian') else: print('Probably not Gaussian')
    • Ніжне введення в тести на нормальність у Python
    • scipy.stats.normaltest
    • Тест Д'Агостіно на К-квадрат у Вікіпедії

    Тест Андерсона-Дарлінга

    Перевіряє, чи має вибірка даних розподіл Гауса.

    • H0: вибірка має розподіл Гауса.
    • H1: вибірка не має розподілу Гауса.
    # Дослідження з Anderson-Darling Normality від scipy.stats import anderson data = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.637, -1.8 print('stat=%.3f' % (result.statistic)) for i in range(len(result.critical_values)): sl, cv = result.significance_level[i], result.critical_values[i] if result.statistic < cv: print('Probably Gaussian at the %.1f%% level' % (sl)) else: print('Probably Gaussian at the %.1f%% level' % (sl))
    • Ніжне введення в тести на нормальність у Python
    • scipy.stats.anderson
    • Тест Андерсона-Дарлінга у Вікіпедії

    2. Кореляційні тести

    У цьому розділі наведено статистичні тести, які можна використовувати для перевірки зв'язку двох вибірок.

    Коефіцієнт кореляції Пірсона

    Перевіряє, чи мають два зразки лінійну залежність.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці розподілені нормально.
    • Спостереження у кожній вибірці мають однакову дисперсію.
    # Переклад тексту Pearson Correlation від scipy.stats import pearsonr data1 = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.637,3.1. 5 , -7.545, -0.555, -1.536, 3.350, -1.578, -3.537, -1.579] stat, p = pearsonr(data1, data2) print('stat=%.3f, p=%.3f' % (stat, p)) if p > 0.05: print('Probably independent') else: print('Probably dependent')
    • Як розрахувати кореляцію між змінними в Python
    • scipy.stats.pearsonr
    • Коефіцієнт кореляції Пірсона у Вікіпедії

    Рангова кореляція Спірмена

    Перевіряє, чи мають дві вибірки монотонний зв'язок.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці можна ранжувати.
    # Example of Spearman's Rank Correlation Test from scipy.stats import spearmanr data1 = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.633, -1.633, -1.633, -1.633. 0.125, -7.545, -0.555, -1.536, 3.350, -1.578, -3.537, -1.579] stat, p = spearmanr(data1, data2) print('stat=%.3f, p=%.3f' % (stat , p)) if p > 0.05: print('Probably independent') else: print('Probably dependent')
    • Як розрахувати непараметричну рангову кореляцію в Python
    • scipy.stats.spearmanr
    • Коефіцієнт рангової кореляції Спірмена у Вікіпедії

    Рангова кореляція Кендалл

    Перевіряє, чи мають дві вибірки монотонний зв'язок.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці можна ранжувати.
    # Example of Kendall's Rank Correlation Test з scipy.stats import kendalltau data1 = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.633, -1.633, -1.633, -1.633. 0.125, -7.545, -0.555, -1.536, 3.350, -1.578, -3.537, -1.579] stat, p = kendalltau (data1, data2) print('stat=%.3f, p=%.3f' % (stat , p)) if p > 0.05: print('Probably independent') else: print('Probably dependent')
    • Як розрахувати непараметричну рангову кореляцію в Python
    • scipy.stats.kendalltau
    • Коефіцієнт рангової кореляції Кендала у Вікіпедії

    Тест хі-квадрат

    Перевіряє, чи є дві категоріальні змінні пов'язаними чи незалежними.

    • Спостереження, використовувані для розрахунку таблиці спряженості, незалежні.
    • 25 і більше прикладів у кожному осередку таблиці спряженості.
    # Example of the Chi-Squared Test from scipy.stats import chi2_contingency table = [[10, 20, 30],[6, 9, 17]] stat, p, dof, expected = chi2_contingency(table) print('stat= %.3f, p=%.3f' % (stat, p)) if p > 0.05: print('Probably independent') else: print('Probably dependent')
    • Ніжне введення в тест хі-квадрат для машинного навчання
    • scipy.stats.chi2_contingency
    • Тест хі-квадрат у Вікіпедії

    3. Стаціонарні випробування

    У цьому розділі наведено статистичні тести, які можна використовувати, щоб перевірити, чи є тимчасовий ряд стаціонарним чи ні.

    Розширений кореневий тест Дікі-Фуллера

    Перевіряє, чи має часовий ряд одиничний корінь, наприклад. має тенденцію чи, у загальному сенсі, є авторегрессионным.

    • H0: є одиничний корінь (ряд нестаціонарний).
    • H1: одиничного кореня немає (ряд стаціонарний).
    # Example of Augmented Dickey-Fuller unit root test from statsmodels.tsa.stattools import adfuller data = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] stat, p, lags, obs, crit, t = adfuller(data) print('stat=%.3f, p=%.3f' % (stat, p)) if p > 0.05: print('Probably not Stationary') else: print('Probably Stationary ')
    • Як перевірити, чи є дані часових рядів стаціонарними за допомогою Python
    • statsmodels.tsa.stattools.adfuller API.
    • Розширений тест Дікі-Фуллера, Вікіпедія.

    Квятковськи-Філліпс-Шмідт-Шин

    Перевіряє, чи є часовий ряд трендом стаціонарним чи ні.

    • H0: часовий ряд є стаціонарним за трендом.
    • H1: часовий ряд не є стаціонарним за трендом.
    # Example of the Kwiatkowski-Phillips-Schmidt-Shin test з statsmodels.tsa.stattools import kpss data = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] stat, p, lags, crit = kpss(data) print('stat=%.3f, p=%.3f' % (stat, p)) if p > 0.05: print('Probably Stationary') else: print('Probably not Stationary')

    4. Параметричні статистичні перевірки гіпотез

    У цьому розділі наведено статистичні тести, які можна використовувати для порівняння вибірок даних.

    Т-критерій Стьюдента

    Перевіряє, чи суттєво відрізняються середні значення двох незалежних вибірок.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці розподілені нормально.
    • Спостереження у кожній вибірці мають однакову дисперсію.
    • H0: середні значення вибірок дорівнюють.
    • H1: середні значення вибірок нерівні.
    # Example of Student's t-test from scipy.stats import ttest_ind data1 = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.637,2.4 , -0.938, -0.729, -0.846, -0.157, 0.500, 1.183, -1.075, -0.169] stat, p = ttest_ind(data1, data2) print('stat=%.3f, p=%.3f' % ( stat, p)) if p > 0.05: print('Probably the same distribution') else: print('Probably different distributions')
    • Як розрахувати параметричні статистичні перевірки гіпотез у Python
    • scipy.stats.ttest_ind
    • Т-тест Стьюдента у Вікіпедії

    Парний t-критерій Стьюдента

    Перевіряє, чи суттєво відрізняються середні значення двох парних вибірок.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці розподілені нормально.
    • Спостереження у кожній вибірці мають однакову дисперсію.
    • Спостереження за кожним зразком парні.
    • H0: середні значення вибірок дорівнюють.
    • H1: середні значення вибірок нерівні.
    # Example of Paird Student's t-test from scipy.stats import ttest_rel data1 = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.637, -1.637. 0.432, -0.938, -0.729, -0.846, -0.157, 0.500, 1.183, -1.075, -0.169] stat, p = ttest_rel(data1, data2) print('stat=%.3f, p=%.3f (stat, p)) if p > 0.05: print('Probably the same distribution') else: print('Probably different distributions')
    • Як розрахувати параметричні статистичні перевірки гіпотез у Python
    • scipy.stats.ttest_rel
    • Т-тест Стьюдента у Вікіпедії

    Аналіз дисперсії (ANOVA)

    Перевіряє, чи суттєво відрізняються середні значення двох або більше незалежних вибірок.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці розподілені нормально.
    • Спостереження у кожній вибірці мають однакову дисперсію.
    • H0: середні значення вибірок дорівнюють.
    • H1: одне чи кілька середніх значень вибірок нерівні.
    # Дослідження Analysis of Variance Test from scipy.stats import f_oneway data1 = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.637, -2.8 , -0.938, -0.729, -0.846, -0.157, 0.500, 1.183, -1.075, -0.169] data3 = [-0.208, 0.696, 0.928, -1.148, -0.213 0, -1.204 ] stat, p = f_oneway(data1, data2, data3) print('stat=%.3f, p=%.3f' % (stat, p)) if p > 0.05: print('Probably the same distribution') else: print('Probably different distributions')
    • Як розрахувати параметричні статистичні перевірки гіпотез у Python
    • scipy.stats.f_oneway
    • Дисперсійний аналіз у Вікіпедії

    Тест ANOVA з повторними вимірами

    Перевіряє, чи суттєво відрізняються середні значення двох або більше парних вибірок.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці розподілені нормально.
    • Спостереження у кожній вибірці мають однакову дисперсію.
    • Спостереження за кожним зразком парні.
    • H0: середні значення вибірок дорівнюють.
    • H1: одне чи кілька середніх значень вибірок нерівні.

    В даний час не підтримується в Python.

    • Як розрахувати параметричні статистичні перевірки гіпотез у Python
    • Дисперсійний аналіз у Вікіпедії

    5. Непараметричні статистичні перевірки гіпотез.

    U-тест Манна-Уітні

    Перевіряє, чи рівні розподілу двох незалежних вибірок.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці можна ранжувати.
    • H0: розподіл обох вибірок рівні.
    • H1: розподіл обох вибірок не дорівнює.
    # Докладно про Mann-Whitney U Test від scipy.stats import mannwhitneyu data1 = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.637,1 -2. 0.432, -0.938, -0.729, -0.846, -0.157, 0.500, 1.183, -1.075, -0.169] stat, p = mannwhitneyu (data1, data2) print('stat=%.3f, p=%. (stat, p)) if p > 0.05: print('Probably the same distribution') else: print('Probably different distributions')
    • Як розрахувати непараметричні статистичні перевірки гіпотез у Python
    • scipy.stats.mannwhitneyu
    • U-тест Манна-Уітні у Вікіпедії

    Знаковий критерій Вілкоксона

    Перевіряє, чи рівні розподілу двох парних вибірок.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці можна ранжувати.
    • Спостереження за кожним зразком парні.
    • H0: розподіл обох вибірок рівні.
    • H1: розподіл обох вибірок не дорівнює.
    # Докладно про Wilcoxon підписаний-залишковий тест з scipy.stats import wilcoxon data1 = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.637, -1.637 0.432, -0.938, -0.729, -0.846, -0.157, 0.500, 1.183, -1.075, -0.169] stat, p = wilcoxon(data1, data2) print('stat=%.3f, p=%.3f (stat, p)) if p > 0.05: print('Probably the same distribution') else: print('Probably different distributions')
    • Як розрахувати непараметричні статистичні перевірки гіпотез у Python
    • scipy.stats.wilcoxon
    • Тест на підписання рангу Вілкоксона у Вікіпедії

    Тест Крускала-Уолліса H

    Перевіряє, чи рівні розподілу двох чи більше незалежних вибірок.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці можна ранжувати.
    • H0: розподіл усіх вибірок однакові.
    • H1: розподіл одного або декількох зразків не дорівнює.
    # Example of the Kruskal-Wallis H Test від scipy.stats import kruskal data1 = [0.873, 2.817, 0.121, -0.945, -0.055, -1.436, 0.360, -1.478, -1.637, -2.86 0.432, -0.938, -0.729, -0.846, -0.157, 0.500, 1.183, -1.075, -0.169] stat, p = kruskal(data1, data2) print('stat=%.3f, p=%.3f' % (stat, p)) if p > 0.05: print('Probably the same distribution') else: print('Probably different distributions')
    • Як розрахувати непараметричні статистичні перевірки гіпотез у Python
    • scipy.stats.kruskal
    • Односторонній дисперсійний аналіз Крускала-Уолліса у Вікіпедії

    Тест Фрідмана

    Перевіряє, чи рівні розподілу двох чи більше парних вибірок.

    • Спостереження у кожній вибірці незалежні та однаково розподілені (iid).
    • Спостереження у кожній вибірці можна ранжувати.
    • Спостереження за кожним зразком парні.
    • H0: розподіл усіх вибірок однакові.
    • H1: розподіл одного або декількох зразків не дорівнює.
    # Докладно профрідманний тест з циферблатами. 0.938, -0.729, -0.846, -0.157, 0.500, 1.183, -1.075, -0.169] data3 = [-0.208, 0.696, 0.928, -1.148, -0.213,0. -1.204] stat , p = friedmanchisquare(data1, data2, data3) print('stat=%.3f, p=%.3f' % (stat, p)) if p > 0.05: print('Probably the same distribution') else: print( 'Probably different distributions')
    • Як розрахувати непараметричні статистичні перевірки гіпотез у Python
    • scipy.stats.friedmanchisquare
    • Тест Фрідмана у Вікіпедії

    Подальше читання

    У цьому розділі представлені додаткові ресурси на цю тему, якщо ви хочете заглибитися в неї.

    • Ніжне введення в тести на нормальність у Python
    • Як використовувати кореляцію, щоб зрозуміти взаємозв'язок між змінними
    • Як використовувати параметричні тести статистичної значущості в Python
    • Ніжне введення у статистичні перевірки гіпотез

    Короткий зміст

    У цьому посібнику ви познайомилися з ключовими перевірками статистичних гіпотез, які можуть знадобитися в проекті машинного навчання.

    Зокрема, ви дізналися:

    • Типи тестів, які можна використовувати в різних обставинах, наприклад, перевірка нормальності, взаємозв'язків між змінними та відмінностей між вибірками.
    • Ключові припущення кожного тесту і способи інтерпретації результатів тесту.
    • Як реалізувати тест за допомогою Python API

    Ви маєте запитання?
    Ставте свої запитання в коментарях нижче, і я постараюся відповісти.

    Чи я пропустив важливий статистичний тест або ключове припущення для одного з перерахованих тестів?
    Дайте мені знати у коментарях нижче.

    Статті з даної тематики

    • Ніжне введення у перевірку статистичних гіпотез
    • Як використовувати тести статистичної значущості для інтерпретації результатів машинного навчання
    • Як розрахувати непараметричні статистичні перевірки гіпотез у Python
    • Як розрахувати параметричні статистичні перевірки гіпотез у Python
    • Як розрахувати критичні значення для перевірки статистичних гіпотез за допомогою Python
    • Тести статистичної значущості для порівняння алгоритмів машинного навчання
    • Статистичні тести в R
    • Як підвищити продуктивність машинного навчання
    • Шпаргалка з лінійної алгебри для машинного навчання
    • 11 класичних методів прогнозування часових рядів у Python (шпаргалка)
    • Пам'ятка складності операцій Python
    • Шпаргалка за регулярними виразами Python
    • Машинне навчання зі статистичними та причинними методами
    • Ніжне введення в статистичне мовне моделювання та моделі нейронної мови
    • Ніжне введення у статистичні інтервали допуску у машинному навчанні

Related Posts