Skip to content Skip to sidebar Skip to footer
0 items - £0.00 0
0 items - £0.00 0

Quand utiliser le modèle probit ?

Quand utiliser le modèle probit ?

Comment choisir entre logit et probit ? La seule différence entre les mod`eles probit et logit est la spécification de F. Dans ces deux cas, la loi des résidus est symétrique, on peut donc remplacer F−ε par Fε. Quand utiliser le modèle probit ou logit ? Les modèles Logit et Probit sont des modèles économétriques non linéaires qui sont utilisés lorsque la variable dépendante est binaire ou fictive, c’est-à-dire qu’elle ne peut prendre que deux valeurs. Le modèle de choix binaire le plus simple est le modèle de probabilité linéaire. Pourquoi on utilise le log ? La spécification en log se justifie en particulier si vous cherchez à estimer une élasticité, mais également si la distribution de votre variable dépendante (conditionnellement à vos régresseurs) est très asymétrique ou hétéroscédastique. Comment interpréter le R carré ? Interprétation des valeurs de R carré? Ce coefficient est compris entre 0 et 1, et croît avec l’adéquation de la régression au modèle: – Si le R² est proche de zéro, alors la droite de régression colle à 0% avec l’ensemble des points donnés. Quel modèle de régression choisir ? Si Y est qualitative, le modèle est nommé régression logistique, logistic regression en anglais. Le cas le plus simple est la régression logistique binaire (Y n’a que deux modalités). Si ce n’est pas le cas, la régression logistique peut être multinomiale, polytomique, ordinale, nominale…

Quand utiliser une régression linéaire ?
Comment faire la régression logistique ?
Pourquoi faire une régression linéaire ?
Pourquoi le pH est une échelle logarithmique ?
Comment savoir si une échelle est linéaire ?
Quelle est la différence entre la corrélation et la régression ?
Pourquoi utiliser R2 ?
Quand on utilise la régression linéaire ?
Quand utiliser échelle logarithmique ?
Comment Appelle-t-on un pH compris entre 0 et 6 ?
Pourquoi utiliser les logarithmes ?
Quand utiliser le logarithme ?
Comment calculer le coefficient de Pearson ?
Comment savoir si un modèle est linéaire ?
C’est quoi la différence entre l’échelle logarithmique et l’échelle décimale ?
Quelle est la méthode la plus précise pour mesurer le pH ?
Pourquoi le pH neutre est 7 ?
Quelle est la différence entre log et ln ?
Quel est le contraire de exponentielle ?
Pourquoi utiliser une échelle logarithmique ?
Quand utiliser régression linéaire ?
C’est quoi la zone de virage ?
Quels sont les deux méthodes permettant de mesurer le pH ?
Quel est le pH de l’eau de pluie ?
Quel est le pH du sang humain ?
Quel est l’inverse de ln ?
Comment savoir si une fonction logarithmique est croissante ou décroissante ?
Comment choisir un modèle statistique ?
Quel est le pH d’une base forte ?
C’est quoi le papier pH ?
Pourquoi il ne faut pas boire l’eau de pluie ?
Quel est le pH du vinaigre ?

Quand utiliser une régression linéaire ?

La régression linéaire simple permet d’estimer les paramètres de la droite liant la variable réponse à la variable prédictive, mais elle permet également d’évaluer si cette relation est significative ou non. Pour cela, un test T est employé pour évaluer si la pente est significativement différente de 0 ou non.

Comment faire la régression logistique ?

Pour réaliser une régression logistique, il est nécessaire d’avoir un nombre suffisant de données. En pratique, il est recommandé d’avoir au moins 10 fois plus d’événements que de paramètres dans le modèle. En appliquant la fonction summary() nous voyons trois lignes, il y a donc 3 paramètres.

Pourquoi faire une régression linéaire ?

L’intérêt est de déterminer le degré de corrélation entre des variables, afin de mieux prédire leur comportement dans l’avenir. En effet, en faisant varier une variable, on pourra prévoir l’impact sur l’autre variable.27 juin 2014

Pourquoi le pH est une échelle logarithmique ?

Le pH est une échelle logarithmique en base 10, c’est-à-dire que chaque unité de pH correspond à une variation de concentration égale à 10 fois. Voici un exemple pour bien comprendre ce que signifie ce fait: une solution acide dont le pH est de 4 est 10 fois plus acide qu’une autre solution à pH de 5.5 juil. 2020

Comment savoir si une échelle est linéaire ?

Définition

Quelle est la différence entre la corrélation et la régression ?

La corrélation mesure l’intensité de la liaison entre des variables, tandis que la régression analyse la relation d’une variable par rapport à une ou plusieurs autres.

Pourquoi utiliser R2 ?

Le R2 dans le domaine financier En général, on utilise R carré en finance pour suivre le pourcentage de variation d’un fonds ou d’un actif qui s’explique par les mouvements d’un autre indice, en particulier des indices de référence comme le S&P500.

Quand on utilise la régression linéaire ?

La régression linéaire simple permet d’estimer les paramètres de la droite liant la variable réponse à la variable prédictive, mais elle permet également d’évaluer si cette relation est significative ou non. Pour cela, un test T est employé pour évaluer si la pente est significativement différente de 0 ou non.

Quand utiliser échelle logarithmique ?

Une échelle logarithmique est particulièrement adaptée pour rendre compte des ordres de grandeur dans les applications. Elle montre sur un petit espace une large gamme de valeurs, à condition qu’elles soient non nulles et de même signe.

Comment Appelle-t-on un pH compris entre 0 et 6 ?

iII : LE pH Si le pH est compris entre 0 et 7, on a une solution acide. Si le pH vaut 7, on a une solution neutre. Si le pH est compris entre 7 et 14, on a une solution basique ou alcaline.

Pourquoi utiliser les logarithmes ?

Le logarithme est très couramment utilisé en Physique-Chimie, car il permet de manipuler et de considérer des nombres possédant des ordres de grandeur très différents, notamment grâce à l’emploi d’échelles logarithmiques.

Quand utiliser le logarithme ?

Dans le cas de la notation logarithmique, elle est la réciproque de la notation exponentielle. Ainsi, lorsque la variable que l’on cherche à isoler se situe à la position des exposants, on peut utiliser les logarithmes.

Comment calculer le coefficient de Pearson ?

Le coefficient r de Bravais-Pearson entre deux variables X et Y se calcule en appliquant la formule suivante: où covx,y => covariance entre les deux variables; mx et mY => moyennes des deux variables; sx et sY => écarts-types des deux variables.13 déc. 2016

Comment savoir si un modèle est linéaire ?

2.1 Le modèle linéaire – Y est une variable aléatoire réelle (v.a.r.) que l’on observe et que l’on souhaite expliquer, ou prédire (ou les deux à la fois) ; on l’appelle variable à expliquer, ou variable réponse (parfois aussi variable dépendante, ou variable endogène).

C’est quoi la différence entre l’échelle logarithmique et l’échelle décimale ?

Si l’échelle décimale de Monoyer est très précise pour mesurer les acuités élevées, elle manque de sensibilité pour les basses acuités. Une échelle logarithmique est préférable pour décrire la fonction visuelle et facilite les statistiques.

Quelle est la méthode la plus précise pour mesurer le pH ?

potentiométrique

Pourquoi le pH neutre est 7 ?

I. C’est la quantité de ces ions qui détermine notamment une sensation macroscopique d’acidité ou encore un caractère corrosif. Une solution de pH = 7 est neutre. Elle contient autant d’ions H+ que HO − . Une solution de pH < 7 est acide.

Quelle est la différence entre log et ln ?

Logarithme népérien, logarithme décimal Un logarithme se calcule part rapport à une base. En décimal nous utiliserons “10” comme base. Les logarithmes népériens (de John Napier dit Neper, mathématicien écossais né au 16éme siècle) ont pour base la valeur e = 2.71828. Le logarithme népérien de e est égal à 1.

Quel est le contraire de exponentielle ?

Des longues années passées à en étudier les propriétés analytiques font souvent oublier à l’étudiant la nature purement arithmétique de la fonction exponentielle et de son inverse, le logarithme.

Pourquoi utiliser une échelle logarithmique ?

Une échelle logarithmique est particulièrement adaptée pour rendre compte des ordres de grandeur dans les applications. Elle montre sur un petit espace une large gamme de valeurs, à condition qu’elles soient non nulles et de même signe.

Quand utiliser régression linéaire ?

La régression linéaire simple permet d’estimer les paramètres de la droite liant la variable réponse à la variable prédictive, mais elle permet également d’évaluer si cette relation est significative ou non. Pour cela, un test T est employé pour évaluer si la pente est significativement différente de 0 ou non.

C’est quoi la zone de virage ?

On appelle zone de virage la plage de pH dans laquelle aucune des deux formes de l’indicateur n’est majoritaire. Pour les calculs et les expériences, les indicateurs possèdent une zone de virage tabulée, reflétant avec précision le changement de couleur.

Quels sont les deux méthodes permettant de mesurer le pH ?

Les deux principales méthodes pour mesurer le pH d’une solution sont : pour une précision à 1 unité de pH près : les indicateurs colorés dont la couleur change dans une zone de virage de 2 unités pH, le papier pH, mélange d’indicateurs colorés, à l’aide de son échelle de teinte.

Quel est le pH de l’eau de pluie ?

5 – 5

Quel est le pH du sang humain ?

pH sanguin Un pH à 7,0, au centre de cette échelle, est neutre. Le sang est normalement faiblement basique, avec un pH qui varie entre 7,35 et 7,45.

Quel est l’inverse de ln ?

La fonction logarithme népérien , notée ln , est une fonction définie sur ] 0 ; + [. C’est la primitive de la fonction inverse , s’annulant pour x = 1.

Comment savoir si une fonction logarithmique est croissante ou décroissante ?

0 , ∞ [ . Si c>1, la fonction est croissante. Si 0

Comment choisir un modèle statistique ?

Les plus populaires sont l’AIC (Akaike’s Information Criterion) et le BIC (ou SBC, Bayesian Information Criterion). Lorsque différents modèles paramétriques sont comparés, le modèle associé à l’AIC ou au BIC le plus faible a la meilleure qualité parmi les modèles comparés.

Quel est le pH d’une base forte ?

14

C’est quoi le papier pH ?

Le papier pH. Le papier pH est en fait un papier imbibé d’un indicateur universel, qui est un mélange d’indicateurs. Lorsque l’on trempe un morceau de papier pH dans une solution, le papier change de couleur en fonction du pH du milieu.

Pourquoi il ne faut pas boire l’eau de pluie ?

Vous ne devez donc pas la boire, ni l’utiliser pour cuisiner ou laver la vaisselle. En effet, l’eau de pluie peut présenter une contamination chimique, notamment après ruissellement sur une surface contaminée. Elle peut également présenter une contamination bactérienne ou parasitaire si elle est stockée dans une cuve.

Quel est le pH du vinaigre ?

4


bonjour à tous suite à la pandémie qui sévit actuellement en belgique nous sommes contraints de faire ce tp à distance donc nous allons voir ici différents modèles de réponse pour des variables dépendant de limiter pour et précis pour des valable dépendantes binaire nous verrons tpe 4 comment quels modèles peuvent être utilisés dans le cadre de variable dépendante avec un contenant plusieurs catégories possibles donc nous allons commencer directement avec le première exercice ok le modèle des probabilités linéaire ou modèles lp m il s’agit finalement simplement d’utiliser une régression par les moindres carrés ordinaire en utilisant en variable dépendante une variable binaire ok donc ici on utilise la base de neem rose qui contient un échantillon de 753 femme mariée en 1955 aux états unis et on s’intéresse aux déterminants de la participation des femmes mariées ou marché du travail on nous demande d’estimer un modèle linéaire permettant de prédire la probabilité pour une femme mariée de travailler conditionnellement à son niveau d’instruction son expérience professionnelle son âge et le fait d’avoir des enfants en bas âge et plus âgés ainsi que leur venue conjointe du ménage on nous demande finalement d’interpréter le coefficient lié à la variable et duke ok nous demande ensuite s’il est si les prédictions du modèle sont pertinentes et d’utiliser des statistiques descriptives usuelles pour répondre à cette question donc ici des prédictions du modèle vu qu’il s’agit d’une variable dépendante binaire hockey ce sera égal à 1 en cas de succès donc égale à 1 si jamais la femme travail égal à zéro dans le cas contraire si elle ne travaille pas finalement on aura une prédiction entre 0 et 1 d’accord qui sera en fait simplement la probabilité pour une femme de travail conditionnellement à ses caractéristiques assez variables indépendantes x qu’on aura inclus dans notre modèle donc nous allons directement répondre à ces deux premières questions donc pour résoudre la première question on m’apporte tout d’abord les données par file open et vous avez cherché les données directement dans un répertoire dans lequel vous les avez misé ou simplement en utilisant directement le code use pour la première question on va directement estimé le modèle de probité et n’est donc c’est simplement une un modèle parle qu’on estime par les moindres qu’à l’ordinaire en régressant la variable binaire qui est égal à 1 si la mère travaille et 0 dans le cas contraire sur le revenu conjointe du ménage le nombre d’années d’éducation de l’anr le nombre d’années d’expérience professionnelle de la mer son âge le nombre d’enfants de moins de 6 ans et le nombre d’enfants depuis six ans à charge du ménage d’accord n’estime le modèle et la spécificité d’un tel modèle c’est qu’ici notre variable nos prédictions pour la variable explicative 7 en un sens la probabilité pour la mère de travail est ok plus on s’approche de 1 plus il ya de chances qu’elle travaille plus on s’approche de zéro et moins c’est probabilité est élevée ok donc comment interpréter un coefficient dans le cadre d’une telle régression vous pouvez notamment voir cette variable comme une variable exprimé en % ok donc comment expliquer par exemple l’estimateur bêta liés à la variable et duke ici vous pouvez me traiter de cette manière une année d’éducation ont plus pour la mer génère ceteris paribus toutes autres variables étant maintenue constante on a rien qui bouge dans le terme d’ erreur on n’a aucune autre bhl qui pourrait influencer la participation au marché du travail des femmes cette année les applis bouge devrait générer l’augmentation de 3 98 points de pourcentage de la probabilité pour une femme de travailler d’accord c’est comme ça qu’on peut ici interprété nos estimateur donc ici on a nos estimateur qui sous les hypothèses usuels ne sont pas biaisé ok pour autant que nous n’ayons pas évidemment un billet provenant d’une variable omise mais par contre nous avons en réalité un certain problème avec les écarts type auquel nous reviendrons un petit peu plus tard mais pour le moment du coup nous nous intéresserons pas directement aux des valeurs pour l’inférence ok donc la deuxième chose qui nous était demandé c’est de prendre les prédictions de ce modèle pour chacun de nos échantillons avec la commande predict et puis on va simplement demandé les statistiques descriptives as tata pour avoir un petit peu plus d’informations sur les élections qu’on a fait et on voit immédiatement un petit souci ok c’est que on remarque que le minimum est en dessous de zéro et d une prédiction comme une probabilité négative de travailler ce qui ne fait pas beaucoup de sens ok elle devrait être égal rigueur à sers pour cent mais ça n’a pas de sens de dire qu’on a une probabilité d’hommes de -30% de travailler et on a également des prédictions qui sont supérieures à 100 % ok une probabilité de 113% de travailler ça n’a pas beaucoup de sens non plus ok donc et si clairement on a un modèle qui bon qui qui est très correct pour indiquer le lien qui pluie qui pourrait exister entre nos deux variables dépendant indépendante et notre variable dépendante mais a priori pour les prédictions on a un petit souci si on cherche à prédire on peut vite avoir des valeurs qui sont un petit peu aberrante comme ici donc évidemment la solution de facilité ce serait de directement considérer que toute prédiction inférieures à zéro soit égal à 0% et toute prédiction supérieur à 100% serait égal à 100% mais il y a également d’autres possibilités des modèles un petit peu différent qui nous permettent de faire des prédictions qui seront précisément comprise entre 0 d’accord donc avant de s’attaquer directement la question 3 dans lesquels on cherche des solutions pour pallier à la présence des terreaux sq élasticité dans le modèle que l’on vient d’estimer c’est précisément la raison pour laquelle on ne s’est pas attaqué à l’inférence directement dans la question 1 nous allons faire un bref rappel du second ep sur ce qu’elle était rose qui élasticité donc si l’on prend la matrice de variance covariance de nos erreurs qui reprend sur sa diagonale les variances du terme d’erreur pour chaque individu on sait que l’hypothèse de mosquée l’élasticité implique que cette variance sur cette diagonale du terme d’ erreur soit la même pour chaque observation d’accord elle sera à chaque fois égale à une constante sigma carré ok on sait que cette hypothèse est nécessaire pour l’inférence en ce sens que pour l’inférence on a besoin de calculer des statistiques de test tu es d’accord et c’est ici que de tester qui sont égales à notre estimateur – la valeur tester / l’écart type de l’estimateur on a donc besoin d’un l’estimateur solide consistant de l’écart type de l’estimateur d’état j château hockey et pour ça on a donc un besoin comme comme un lait comme la variance de notre estimateur est égal à cette formule ok avec la somme totale des x au caire est multiplié par les valeurs individuelles de la variance des erreurs on sait que sous l’hypothèse de mosquées des deux mosquées l’asti cité c’est de cette valeur est égale à sygma car est divisé en la somme totale des x au carré qui finalement nous finalement nous permet d’utiliser les sénateurs usuels les écarts types présents ici ok sigma chapeau carré musée en effet ce tgs stj x 1 – 1 er quart et j ou le rk régie et le m² d’une régression de notre variable dépendant d’intérêt sur toutes les autres variables indépendantes le tout exposé en 1/2 si ce sigma carré varie en fonction de toutes les observations ok on sait que cette égalité n’est plus respectée et dans ce cas là l’écart type usuels sigma beta j chapeau n’est plus un estimateur consistant de l’écart type de l’estimateur et dans ce cas là nous ne pouvons pas avoir recours à l’inférence donc typiquement une solution que l’on pourrait avoir si on est en présence des terros d’élasticité c’est d’utiliser les écarts types de wight ok les écarts types robuste à une forme un arbitraire des terreaux serait d’assister finalement c’est un peu la solution de facilité c’est la solution souvent la plus utilisée avec des données transversales comme on en a ici maintenant nous avons vu lors du tp précédent une méthode intéressante pour pallier au problème des terros kessaci des terreaux ski d’asti cité il s’agissait d’estimer un modèle par les moindres carré pondéré ou estimateur oui elle est sûre et il l’est skrulls ok en fait si l’on connaît si forcément ne la vaillance de nos erreurs varie en fonction de nos observations c’est qu’elle varie en fonction des caractéristiques de nos observations donc la valeur de nos variables explicatives x ok si l’on connaît la forme de la fonction h x qui lie nos variable explicative à la variance de nos erreurs on peut en un sens corriger pour les terros kesk élasticité ok donc ici typiquement on voit qu’on a la variance de notre terme d’erreur conditionnellement au aux caractéristiques des deux individus aux variables explicatives qui est égal à sygma carré fois une fonction de ces variables x hockey nietzsche si jamais on décide de prendre de prendre la variance pour chaque obsaar pour chaque observation si on prend la variance de notre de l’ erreur individuelle / la valeur de l’individu de cette fonction h x hockey exposants 1/2 remarque cette variance en fait sur est égal à sygma carrés ce sigma carré qu’on retrouvait ici d’accord nous ne sera égal à une constante nous aurons finalement la variance depuis divisée en hachis qui nous permet un petit peu artificiellement de de reconstruire finalement des erreurs dont des erreurs qui auraient donc cette forme-là dont la variance serait constant pour chaque individu et c’est là où les moindres carrés pondérés sont extrêmement intéressants c’est parce qu’ils nous permettent de nous donner si on si on retrouve ce hachis de nous si l’on pondère pour la vous avec une spécification de la chic qui est correct nous pouvons en un sens corriger pour les terros qu’est la cité du terme d’erreur de cette manière là il suffit simplement de diviser notre équation notre modèle initial par cette valeur hachey exposants 1/2 d’accord donc finalement on pondère pour chaque observation en fonction de la valeur de cette fonction liant les x à la variance de nos erreurs la valeur pour chaque individu de cette fonction h x d’accord et on obtient ainsi un modèle dont les erreurs ou une variance qui ne dépendent pas du tout des variables explicatives et qui ressemble finalement à ceux ci d’accord donc ici bien attention que nous avons un modèle dans lequel il n’y a pas véritablement de constantes auxquelles notre bêta 0 notre constante et multipliant fait par une variable qui est simplement le poids donné à chaque individu donc voilà c’est tout pour les rappels du tp 2 et vous verrez qu’en fait ce modèle de m entre carré pondéré est extrêmement utile dans le cadre d’un modèle de probabilités linéaire donc pour revenir à notre modèle de probité une ère pourquoi est ce que les estimateurs où elle s sont inintéressants dans le cadre de notre modèle de probité l’inr bien on se souvient de l’hypothèse de musc d’asti cité impliquant que la valeur ne dépend pas des variables indépendantes ok donc va y conditionnellement à x et qui est égal à sygma carré le problème c’est que dans le cadre d’un modèle de probité linéaire on sait que nova bhl dépendantes est binaire et elle suit donc une loi de bernouilli de paramètres paix la probabilité de succès la probabilité de notre variable soit égal à 1 que la femme de notre échantillon travail d’accord et donc forcément ce que cela induit c’est que la variance de notre variable binaire conditionnellement ovade explicative soit égale finalement à la probabilité de succès fois moins – la probabilité de succès c’est la variance dans le cadre dans le cadre d’une variable qui suit une loi de bernouilli d’accord et qu’est ce qu’on voit c’est que cette probabilité est effectivement dépend directement des c’est ce qu’on fait avec le modèle finalement on cherche à voir dans quelle mesure d’avoir explicative influe sur cette probabilité est ici directement on voit donc que non la variance cx sont présents il ya bel et bien une fonction h x qui relie la variance notre terme d’ erreur à la à la valeur des x de nos variables explicatives fixe dans notre échantillon d’accord mais ici ce qui est bien c’est que nous avons directement la forme de la fonction h x qui lie les deux hoquets et les estimateurs des moindres carré pondéré nous permet donc de corriger directement pour les terros qui d’asti si tu es d’accord donc l’estimateur qu’on va utiliser de la variance de notre terme d’erreur ce sera directement directement la probabilité prédite pour chaque observation x 1 – la probabilité prêt dit d’accord sera finalement des x x 1 – px avec les prédictions les px d’accord et ceci nous permet directement donc de trouver le poids le 1 sur achi exposants admis que nous allons utiliser pour chaque individu pour pondérer d’accord de cette manière là on aura des paramètres les laisse plus efficace que l’utilisation des estimateurs aux hells on pourra utiliser l’inférence avec les écarts types de wight d’accord donc voilà c’est un petit peu le grand intérêt finalement des estimateurs oui elle est ce d’avoir directement une spécification une spécification 2h x10 au fait qu’on utilise une variable dépendante binaire et nous allons appliquer simplement cette pondération pour voir un petit peu ce qui ce pour nous permettent finalement de pratiquer l’un ferrat donc de retour sur cette attaque nous pouvons simplement estimé la régression avec des écarts types robuste et captive devrait croquer ce sont des écarts types qui sont consistants c’est à dire qu’en grand échantillon ils se rapprocheront de la valeur de la population et nous pouvons donc effectivement les utiliser pour l’inférence mais juste que nous avons une idée de la forme de l’été rose qu’il a sollicités nous pourrions être tentés à la place d’utiliser les estimateurs où elle s ok seul petit souci donc on a vu que il nous comptions utiliser comme bon des rations un divisé en y y et chapeau au x 1 – y échappent aux le tout exposé en 1/2 mais évidemment ça ne fait sens qu’avec des prédictions qui sont comprises entre 0 et 1 et ici on sait que notre modèle linéaire initiale et il a prédit vraisemblement pour votre observation une probabilité supérieure à 100% et pourront observation une probabilité inférieures à zéro pour cent d’accord donc si on n’a pas trop d’observation qui ont ce genre de valeurs extrêmes on peut éventuellement les replacer les remplacer par des valeurs extrêmement proche de zéro et 2 avec 6 0,0001 et 0 9 9 9 9 9 9 ok on fait ça et donc soit on peut s’amuser donc ici vous avez les différentes étapes d’accord d’abord on remplace les valeurs dans les prédictions ensuite on génère notre sig maïs chapeau d’accord qui est simplement égal à y échappe au x 1 – y qui chapeaute le tout exposé en 1/2 hockey ensuite on construit toutes les nouvelles variables donc pour revenir on construit ces différentes variables ici d’accord en générant chaque variable / sigma hâte qu’on a estimé plus là-bas à bouaye qui serait lié avec à 0 qu’ils gala 1 sur sigle a hâte et ensuite on mène une régression de toutes ces variables transformés dont délai / par un sursis glaad finalement son insu rachis exposants admis et on rajoute l’option noooon stents pour préciser à cette attaque on ne veut pas de constante parce que dans un tel modèle nous n’avons pas de constantes en fait ok notre constante initial bêta 0 elle est liée à une variable qui varient pour chaque individu d’accord donc on spécifie ça et on obtient notre modèle par les moindres carrés pondérer ok une manière beaucoup plus rapide de faire ça et simplement avec stata de deux mètres là d’utiliser la d’utiliser la commande règles mais des différentes vagues qui nous intéressent directement sur les transformer et puis de mettre entre crochets à weight donc la pondération qui est égal à 1 / h x attention qu’ici c’est chic c’est pas le hx1 exposé à un demi qu’il faut mettre donc notre prédiction 2 y y x 1 – y y d’accord ah ouais t’es des galas un divisé 11 h il finalement d’accord on exécute cette commande et vous verrez qu’on aura exactement les mêmes estimateur que précédemment vous voyez pour l’autre constante on à 0,59 ici on a également 0.59 là d’accord c’est strictement la même chose ce qu’on vient de faire ici sont exactement les mêmes statistiques qui nous sont données d’accord la l’interprétation se fait exactement la même manière d’accord les valeurs sont évidemment devenu un petit peu différente donc ici une année d’éducation en plus ceteris paribus toutes autres tablettes ont maintenue constante génère une augmentation de 5,38 points de pourcentage de probabilités pour la mère de travailler plus d’accord et maintenant nous pouvons nous essayer à l’inférence et c’est assez simple en a à chaque fois l’esthétique de tests qui sont plutôt élevés donc ici typiquement on voit que l’effet de l’éducation est significatif statistiquement même au seuil très actif de 1% avec une des valeurs extrêmement proche de zéro d’accord et c’est le cas pour toutes les variables que nous avons inclus dans notre modèle donc ça semble un petit peu magique si magique ici on a utilisé où elle s on a on a résolu nos problèmes des terreaux ce qu’est la cité bien sûr la réalité n’est pas aussi magique que ça parce qu’en vérité derrière cette spécification évidemment nous avons utilisé les prédictions d’un modèle linéaire induisant forcément une certaine forme de linéarité entre la probabilité et la probabilité px et 9x justement dans les faits en réalité peut-être que cette relation est légèrement différente même ici le modèle in et le modèle de comités nerfs comme vous l’avez vue est déjà plutôt plutôt solide pour pouvoir étudier ce genre de choses il est toujours recommandé de commencer avec ce modèle avant de partir dans les modèles le git et provident que nous allons voir un petit peu plus tard dans cet épais donc c’est déjà une très très bonne base pour étudier les données et appliqué regarder un petit peu ce qui se passe avec les écarts types de wight regarder un petit peu ce qui se passe avec les it matters où il est peut être intéressant un petit peu regardé ce qui change finalement ici on voit par exemple typiquement que que en ayant retiré les terros qu’est les corriger pour été rossés stévia les estimateurs où ils s on a directement des ses sites de thé qui sont extrêmement importantes ok si l’on revient avec les écarts types de bright nous avons des valeurs qui sont dans le cadre du nombre d’enfants du nombre d’enfants plus âgés que six ans nous voyons que ces deux variables les plus significatives nous avons estimé un modèle où elles s nous avons estimé également un modèle aux hells avec des écarts types de wight le modèle où elles s sera tendance est plus précis les écarts type auront tendance à être plus petit que les écarts types de wight estimé sur base du modèle aux hells tout simplement parce qu’elle nous n’utilisons nous ne restons pas finalement dans le cadre notre ici matters bayless une pénalité dans notre écart type nous estimons directement des écarts types avec la formule aux élèves sont nés en corriger directement la forme de les terros plasticité d’accord voilà déjà ce modèle de probité linéaire il est déjà pas mal en soi il nous permet d’apprécier directement la magnitude des effets partielle de nos différentes variables et nous nous avons déjà une belle idée pour pour l’inférence on a déjà on a déjà plusieurs chemins qui s’ouvre à nous pour pouvoir si ces caractéristiques font sens individuellement si leur effet vraiment fort finalement statistiquement significatifs statistiquement et économiquement couzier la magnitude mais évidemment nous avons vu que la précision enfin la pression au delà de la précision des modèles surtout le les prédictions de nos modèles étaient des fois un petit peu manqué à laquelle on peut se retrouver avec des valeurs vite extrêmes ce tout simplement parce qu’en fait on spécifie un modèle linéaire ok mais on ne dit pas vraiment un stack on veut un modèle qui soit compris entre 0 et 1 notre logiciel statistiques quand on utilise des moindres carrés condamné cette manière là finalement on traite ces deux variables binaire comme si elle était une variable classique il devra continuer finalement on ne regarde pas on ne regarde pas si dès qu’elle puisse vraiment être bloquée entre de carcans entre 0 et 1 d’accord c’est un petit souci parce que du coup certaines prédictions de nos observations en fonction des dépenses estimées mais pourront être effectivement bien bien supérieur à 100% bien inférieure à 0 % comme on l’a vu dans le cadre de cet échantillon est des fois on aimerait un petit peu corrigé pour ça on aimerait peut-être trouvé un modèle qui nous permettrait d’avoir ces de carcans entre 0 et 1 d’accord et deux modèles nous permettent finalement un petit peu de répondre à ça s’agit du modèle le git et du modèle pro vite ok donc on va utiliser la base de données m ross toujours la même et estimer un model look et permettant de prédire la probabilité pour une femme mariée de travailler conditionnellement aux différentes variables qu’on est utilisée précédemment et on va voir si ce modèle estimé a du sens on va ensuite calculé l’effet d’une année d’études supplémentaires sur la probabilité pour une femme de travailler pour être prêt si on va calculer les faits led et une en terre soit profiter pour une femme moyenne de travail et c’est à dire la femme représentative de la moyenne de notre échantillon en un sens et on va comparer cette probabilité à cet effet à celui estimé via notre modèle de probabilités linéaire d’accord ensuite nous allons estimé faire exactement la même chose pour un modèle probit et finalement nous allons trouver le moyen de vérifier quel modèle nous semble le plus pertinent pour prédire la probabilité pour une femme ici nous avons nommé z une combinaison linéaire de variables explicatives x hockey bêta zéro + bêta 1 x 1 + bêta 2 x 2 plus d’autres termes normalement je ne suis pas censé écrire c’est comme ça je les écris ici simplement pour que ce soit bien clair et que ce soit assez direct normalement on ne peut pas écrire ça mathématiquement un accord ici donc c’est juste pour gagner de la place sur plus clair sachant que z on va simplifier elle est égale à cette spécification minaire cette combinaison hilaire de labex putative nous allons voir les différentes publications des trois modèles présentés lors de ce tp d’abord dans le modèle de probité linéaire on l’a vu il s’agit finalement de la probabilité de succès qui finalement ont un sens notre notre variable dépendante la probabilité qu’ils y soient égales à notre brave dépendantes conditionnement os x est égal en fait à une combinaison linéaire de nos variable x appelée c’est une régression par les moindres carrés ordinaire une régression linéaire ce qui va changer avec le modèle low gaieté probit c’est qu’en fait on va au lieu de prendre directement cette utilisation hier on va prendre une certaine fonction de cette spécification linéaire dans le cadre du modèle le guide typiquement on va utiliser une fonction de distribution cumulative d’une variable aléatoire logistique standardisés donc elle ressemble à ça d’accord il s’agit de l’ex potentiel de notre combinaison linéaire / 1 + l’exponentielle de notre combinaison l’inr prendre une telle fonction de cette combinaison linéaire est une telle fonction de z ça nous permet en fait d’obtenir pour notre prédiction de ces probabilités une valeur qui sera strictement comprise entre 0 et 1 par exemple imaginons que c’est z tendent vers moins l’infini il est de plus en plus petits bien ici nous aurons une valeur au numérateur qui se rapprochera toujours plus 2 0 tandis qu’au dénominateur nous aurons une valeur qui se rapprochera de plus en plus de 1 donc au final on se rapprochera de zéro inversement si j’amène az qui tend vers l’infini qui devient extrêmement grand bien nous aurons exposants est et exposants z qui s’annulent rond et nous aurons un d’accord nous tendrons verra nous nous rapprochons de plus en plus de 1,6 la valeur de cette augmente vers l’infini le modèle pro bits est en fait très très similaires la grande différence c’est qu’ici en prenant une fonction de notre combinaison pierrette on prend cette fois ci la fonction de distribution cumulatif d’une variable aléatoire normal standardisés ça ressemble à ça d’accord on va voir directement graphiquement pourquoi mais donc ceci est typiquement également compris entre 0 et 1 il s’agit simplement de la densité présente entre à lundi entre la valeur êtes la valeur que prend 7 et moins l’infini ok on va directement voir graphiquement à quoi se reformer donc l’intérêt de ces deux modèles c’est que nous aurons ce côté des prédictions qui seront bel et bien compris entre 0 et 1 simplement ici nous avons notre loi normale standardisés si on a un très petit un très petit z prédit ok donc on prend simplement de moins une prend simplement sur la fonction l’intégrale de moins l’infini à la valeur de notre aide vous voyez qu’on aura cette valeur si l’accord se contraire on a un très très grand z une valeur extrêmement élevé nous aurons une valeur beaucoup plus importante d’accord seulement ici il s’agit finalement d’une densité hockey de la densité de notre variable donc c’est ça me donne finalement le pourcentage d’observation qui sont en dessous de ce seuil ok sur base de la loi normale et donc en fait ce sera toujours compris entre 0 et 1 forcément envoyée c’est en tout vous avez un de densité ici l’intérieur l’air l’air à l’intérieur de cette fois normal elle est égale à 1 d’accord donc c’est tout l’intérêt d’utiliser finalement le modèle elle avec ses deux fonctions nous avons quelque chose qui ressemble à ceci d’accord pour notre valeur deux aides donc on aura une priorité président qui sera proche de zéro si c’était vraiment très petit et proche de 1,6 est vraiment très grand ok donc toutes les collections seront entre 0 et 1 seulement évidemment le petit souci vous l’aurez deviné c’est qu’ici notre modèle il n’est pas linéaire ouais il n’est pas linéaire et l’effet partiel que l’on pourrait des composés de chèques x à l’intérieur de ce ze5 il n’est pas constant il n’est pas constant en fonction de la valeur que prendront des caractéristiques de l’individu l’effet partiel mesurer sera différent c’est une certaine faiblesse du modèle on ne peut pas donc donner un chiffre en effet constant comme dans le cadre du modèle de probabilités une aire mais c’est aussi une force se dire qu’on peut se permettre de prendre en compte un effet qu’ils changent en fonction des caractéristiques de l’individu d’accord donc dans le cas de ce modèle vous ne pourrez pas vraiment calculé un effet partiel constant mais ce que vous pouvez faire c’est calculé cette fée partiel pour un individu particulier ou encore pour l’individu moyen de l’échantillon hockey et c’est exactement ce qu’on va faire ce statut en utilisant vous voyez ici que cet effet partiel estimé pour l’individu moyen est simplement finalement la dérive et de notre notre modèle par rapport à la variable indépendante qui nous intéresse les faits partiel lavables indépendante qui nous intéresse donc il s’agit finalement simplement d’utiliser la dérivée de la fonction spécifique de notre aide mais en prenant pour ces aides les valeurs moyennes des variables x x beta j essaie simplement la dérive et de la probité de succès conditionnellement os x par rapport à la variable indépendante qui nous intéresse est donc nous obtenons un facteur d’ajustement qu’on multiplie par l’estimateur beta j qui sont égales à ces valeurs-là selon le modèle estimé d’accord au final on obtient une estimation de l’effet partiel pour l’individu moyen monde place à la pratique maintenant nous allons estimé directement notre modèle l’audit en utilisant la commande l’audit et en mettant notre variable dépendante et ne variables indépendantes à sa suite nous exécutons cette commande il obtenons ici des informations dont vous voyez ça ce sont les itéra les itérations par lesquels stata trouvent les estimateurs le bit en fait c’est tata maximise maximise une fonction de l’offre vraisemblance qu’est le logarithme du maximum de vraisemblance nous tous les détails selon l’annexé iii sur sur le concept de maximum de ressemblance que vous avez rapidement vu en cours de statistiques 2 donc après ces itérations il nous donne nos estimateur bêta donc ce qu’on voit ici nous n’avons plus vraiment à fait les mêmes sceptiques de base nous en avons plein air car aimer 1er quart et de mcfadden qui est une statistique qui se bat précisément sur la valeur la valeur de la loque vrai semble 2 notre fonction de la vraisemblance ça ne m’intéresse pas tout à fait comme 1er quart est ok ce n’est plus le pourcentage de variation ne devra dépendantes expliqué par les variables indépendantes ici donc même si sa mesure en un sens aussi là la force l’intérêt des variables indépendantes présentent dans notre modèle nous ne pouvons plus adapté de cette manière là et d’ailleurs nous ne pourrons pas utiliser cette statistique là pour comparer ce modèle un modèle par exemple de probabilités les nerfs ce n’est pas du tout comparable à aircal et ce n’est pas la même statistique d’accord mais ça ne donne quand même une certaine information ensuite ici nous avons un souci une statistique l air hockey qui suit une loi qui carré donc cette statistique c’est un petit peu le c’est très similaire dans sa philosophie finalement au f test que nous faisons usuellement dans les régressions pas les moindres qu’à l’ordinaire donc simplement ici c’est une comparaison de ce modèle à un modèle contraint fait ça comparé la valeur de la laugh vraisemblance d’un modèle contraint donc sans toutes ces variables en modèle avec seulement notre brave dépendantes et l’homme ce modèle si avec tout ne va pas dépendante et en comparant ces deux modèles ont comparant la valeur de l’ocs vraisemblance de ces deux modèles une c6 se construit sur les quais une statistique dont nous savons qu’elle suit une unique arrêt est donc ici nous voyons nous avons une paix valeur pour ces cycles de tests qui étaient extrêmement proches de zéro donc finalement notre modèle semble avoir du sens des variables qu’on a un peu à l’intérieur semble bel et bien apporter quelque chose au modèle la loque vraisemblance et plus haute est significativement plus haute avec avec ces variables qu’on a ajouté d’accord donc ici les estimateurs finalement bêta il ne nous donne pas une très grande information je voulais dit ici les effets partiel ils ne sont pas constants donc ce n’est pas un chiffre finalement précis qui va nous donner c’est pas ce chiffre est situé à nous donner véritablement la magnitude de l’effet de notre homme de notre variables indépendantes par contre les bêtas les bêtas estimé vont dans le même sens que les que ses effets partiel d’accord donc même si on ne peut pas tout à fait apprécier la magnitude à travers ces coefficients on peut au moins avoir une idée déjà du sens de l’effet de notre variable sur sur la variable soit variable dépendante binaire d’accord sur la probabilité finalement pour une femme de travailler donc ici on voit donc que lâche semble avoir un effet négatif sans grande surprise éducation en effet positif et c’est avec l’épée valeur ici l’épée valeurs peuvent s’interpréter tout à fait de la même manière que dans un homme présent d’une que dans une régression liens multiples avec où elle est ce simplement laisser ce type de tests qui ne se calculent plus exactement de la même manière des statistiques et l’air du coup ici l’été valeur quand elles sont en dessous du seuil bien ça signifie que l’on rejette notre hypothèse nul dans le cadre d’un test bilatérales donc on voit ici par exemple ouvrage est significatif statistiquement même un seuil très strictes yves dans la bourse a envoyé que la famille n’est pas significatif 1 un seuil de 5 % elle l’est par contre un seuil de 10% ok donc notre variable le nombre d’enfants de plus de 6 ans n’est pas significative donc voilà ça c’est pour notre modèle donc nous donne déjà beaucoup d’informations bien sûr nous on pourrait être davantage intéressés de mesures est lessivé partiel pour certains types d’individus qui nous intéresse notamment l’individu moyen pour un petit peu une moyenne de l’effet on peut aussi mesurer en fait une moyenne d effet si on veut ça donnera généralement des valeurs extrêmement similaire à l’effet pour l’individu moyen on va s’intéresser d’abord aux prédictions d’un tel modèle donc on utilise la commande predict et après la bulle p r pour probabilité ou à prédire les probabilités pour les fans de notre échantillon de travail et donc j’ai déjà mené la commande du coup l’avarié il me dit que la variable et déjà défini hockey et ensuite on demande à stata de nous donner un résumé de cette variable et statistiques descriptives les plus basiques et on voit effectivement que ce coup ci on n’a plus le souci du modèle de probité linéaire pour lequel on avait un on avait des valeurs inférieures à 100 % ou supérieures à 100 % ici toutes les valeurs sont comprises entre 0 et 100 % voilà donc pour la deuxième question cherche à mesurer les effets partiel pour l’individu moyen de notre échantillon donc pour ça dans cet homme utilise la commande marc jeans cherche les marches finalement virgule d y dx la dérive est en instance y par rapport à x est entre parenthèses ou mais les variables pour lesquels on veut effet partiel ici si on veut avoir directement l’effet de toutes les variables donc mettre simplement une astérix et ne pas s’amuser à recopier l’ensemble de ces variables intérêt ici et on ajoute à 2010 pour avoir si ce fait partielles et voyez que statham donne directement ici c’est ce fait partielles donc les les décide de tester les valeurs n’ont pas changé ce sont toujours les mêmes ici on a simplement les effets partiels qui ne sont donnés pour l’individu qui à l’individu la femme wayne notre échantillon donc on voit que l’âge moyen est de 42 53 ans de nombreux éducation de 12 28 le revenu familial en moyenne de 23 mille j’imagine que j’imagine que c’est annuel le nombre d’années d’expérience de 18,2 soixante trois ans et c’est ok c’est pour cette femme là qu’on calcule ses effets partiel et on voit que pour une telle femme une année d’éducation plus augmente la probabilité de participer au marché du travail de 3,86 points de pourcentage ok ce terrisse paris bus etc donc voilà c’est comme ça que l’on retrouve les effets partiel pour elle et du malien maintenant on pourrait évidemment c’est même un peu un désintérêt du modèle être intéressés vous voulez par un individu un petit peu particulier par exemple je ne sais pas on cherche les faits sur des femmes jeunes et peu éduqués par exemple qui n’ont pas encore d’enfants alors on utilise après au lieu d’utiliser à twin cities pâte et entre parenthèses on met les valeurs qui nous intéresse par exemple si on s’intéressait une femme qui aurait 20 ans qui aurait très peu dans l’éducation mais ton si ce qui aurait un revenu dans le temps le revenu du ménage serait extrêmement faible mais 1500 et donc les années d’expérience professionnelle seraient nuls et qui n’auraient pas encore d’enfant si on mesure les effets partiel pour une telle personne on voit qu’ils sont légèrement différents ici il semblerait que une année d’éducation en plus augmente un peu plus fortement la probabilité de la probabilité de mme patti paix aux âmes mâcher le travail même si c’est différent ce n’est pas forcément significative les estimateurs ici ou un petit peu changé par rapport à notre individu précédentes notre femme moyenne ok oui et que par exemple l’effet de l’âge est beaucoup plus faible dans le cadre de la femme moyenne pardon non en fait il est extrêmement similaires pardon entre la taille moyenne et cette jeune femme mais on a quand même des valeurs qui sont globalement différentes même si elles sont assez proches en entre ces deux formes d’individus sur base de notre modèle ok donc voilà comment on peut faire retrouver les effets partiel donc on peut maintenant faire exactement la même chose pour le modèle profite la seule différence c’est qu’ici la commande soit produite au lieu de l’ogc nice voilà et on peut utiliser là on peut prendre les prédictions de ce modèle donc on voit ici encore une fois que l’est que les variables sont significatives et éduque ce coup-ci famille est significatif aussi à 5% lavera d’experts également quitte les enfants de moins de 6 ans également le nombre d’enfants de moins de 6 ans on peut à nouveau calcul et les effets partiel ils seront généralement extrêmement similaire à un modèle le guide ok on peut aussi le calcul et pour la femme un petit peu particulière que nous avions initialement que nous avions défini d’accord donc voilà c’est tout pour ce et où finalement pour l’aiment pour l’est c’est tout finalement pour les effets partiel maintenant pour la troisième question on a envie de comparer les performances de notre modèle finalement donc ici on a toutes les prédictions donc ici sont des prédictions on a remplacé les prédictions extrême de notre modèle initial de probabilités binaire par des valeurs très proche de zéro ou très proches demain si jamais elle était supérieure à supérieur à 1 ou inférieure à 0 donc bon ici évidemment ce n’est pas un modèle qui est extrêmement costaud pour les prédictions ici on voit que les fourchettes sont légèrement différentes entre l’est entre notre modèle l’audit et notre modèle probit on peut éventuellement un petit peu comparer leurs performances se base du ham du r carré de mcfadden mais évidemment nous pourrons pas faire ça avec notre modèle de probité linéaire qui pourtant est potentiellement déjà un très bon modèle surtout si on s’intéresse l’individu moyen d’accords donc ici jeu sur base de cendre s’est pas encore vraiment des grand chose sur les performances de nos modèles mais mais nous pouvons utiliser une petite astuce on va simplement s’intéresser aux capacités prédictives de notre modèle pour voir quels modèles semblent dans le cas d’un échantillon a priori le plus performant comment est-ce qu’on va comparer nos différents modèles sachant que nous avons des statistiques qui sont différentes donc une mesure alternative au référé et wasquehal et de mcfadden c’est de regarder le pourcentage de prédictions correctes de modèles donc nombre de prédictions correctes divisé par le nombre d’observations d’accord où nous considérons qu’une prédiction y/y chapeau est égal à 1 si la valeur prédite par notre modèle est supérieur à 0,5 supérieure à 50% et nous considérons que notre valeur prédite y/y chapeau est égal à zéro si cette probité est inférieur à 50% l’accord donc simplement nous calculons ici nous on assomme les navigatrices ne calculant le nombre d’observations pour lesquels on prédit une valeur pour notre voie binaire qui est égal à 1 alors que cette valeur effective a bel et bien et gains plus nombre d’observations pour lesquelles cette prédiction est égal à zéro alors que là la véritable la valeur véritable de cette inflation c’est de cette observation est bel est bien égale à zéro d’accord de cette manière là on obtiendra un pourcentage de prédictions correctes pour chacun de nos modèles et on pourra les comparer en regardant lequel a le pourcentage de prédictions correctes le plus élevé ok assez facilement pour les modèles low bits et les modèles probit ce pourcentage de prédictions correctes dans le cadre du modèle du modèle lpm initiale s’est il n’y a pas de code véritablement préfet en tout cas je n’en ai pas trouvé danse tata donc si nous voulons avoir les prédictions correctes nous devons les reconstruire nous mêmes même la régression ici donc j’ai déjà là j’ai déjà les prédictions il fut at on a déjà appris c’est une flat parce qu’on a déjà l’élection de ce modèle parce qu’on a déjà alors on les a déjà généré précédemment mais sinon vous devez les générer en utilisant la commande predict ok donc ici on va générer la prédiction y/y chapeau que nous venons de voir qui est égal à 1 si notre prédiction est supérieur à 50% ok on fait exactement la même chose pour les prédictions inférieur à 50% qui seront donc égale à zéro et donc on a une variable et il suffit simplement de compter le nombre de compter le nombre d’observations pour lesquelles cette variable prédit que nous avons créée est équivalente à la réalité observée ne compte finalement le nombre d’observations pour lesquels la prédiction est équivalente variable dépendante on voit qu’il ya 55 156 observation pour lesquelles cette prédiction est correct donc je suis simplement divisé par le nombre d’observations qu’on a eue de notre tableau de rillettes de régression 753 et nous obtenons le pourcentage de prédictions correctes ça vous voyez que il s’agit de 73 quelques 80 4% pour les fonctions langue était pro gimp robeet on peut avoir la même chose simplement avec une commande post estimations d’abord on estime notre modèle low git ensuite on utilise la commande est apte pour demander une une statistique poste estimation et on utilise la commande classification donc cela va nous sortir directement un tableau où on voit juste le pocovi et les clés de lecture ce tableau en soit ce qui nous intéresse nous est déjà donnée ici 73 97 % des observations sont correctement classifiés donc correspondent effectivement à des prédictions correctes ici donc juste pour que vous puissiez lire le tableau ici plus signifie que nous avons prédit y échappent aux égal à 1 – y échappent aux prédit est égal à zéro dès signifie qu effectivement l’observation est l’observation a pour valeur pour l’avoir dépendantes 1 et ça c’est et ce dès ici signifie au contraire que ce concrètement dans concrètement cette vague binaire est égal à zéro d’accord donc les prédictions correctes ce sont ses 344 observations qu on après dites supérieures à 50% donc y/y chapeau est égal à 1 et donc la véritable valeur est bel est bien égal à 1 plus ses 213 observation pour lesquelles on a prédit y échappent aux égal à zéro et dont la variable dépendante ce binaire est effectivement égal à zéro d’accord donc c’est finalement 344 plus plus de 113 observations voix qui lie à 557 après l’option correct si on divise c’est là à part la population 753 devrions obtenir la même pourcentage 73,97 pour sont effectivement ici on peut même aller un petit peu plus loin d’accord donc on peut faire exactement la même chose pour notre modèle profite voilà et ont remarqué que même modèle pro but on à septembre 4 5% les observations qui ont été correctement classés qu’eux pour lesquelles on a fait une prédiction qui était correct on voit que ce pourcentage bien qu’il soit extrêmement proches étaient légèrement légèrement moins élevé plus proche de 7 en quatre pour cent dans le cadre du modèle le heat et dans le cadre du modèle abus du modèle lpm n’avait également des prédictions des prédictions globalement qui était un petit peu plus faible mais globalement ça reste très posh les trois modèles sont finalement assez assez bon mais il semblerait a priori que le le modèle pour le modèle provident soit légèrement légèrement plus performant dans notre échantillon pour notre région voilà donc c’est tout pour cette séance aussi je m’excuse vraiment pour les hoquets les sava et les d’accord j’essaierai de faire un gros effort sur moi même pour éviter de prêter encore de les faire prochain au prochain au prochain tp donc pour le prochain tp justement je pensais 1 voir que le modèle multi nauviale comment le faire sous stata je pensait initialement si vous faire une introduction aux régressions spatiale donc ça ne fait pas du tout partie de la matière du court mais je me décidais que ça pourrait être assez intéressant sous qu’actuellement tout ce qui est donné sur sur des entités géographiques c’est vraiment en plein boom je me dis que ça pourrait être pas mal de voir ça maintenant bon je vous cache pas que pour moi c’est une vraie torture de faire des vidéos j’ai jamais fait ça avant et je pense que ça se ressent fortement à travers celle ci donc voilà je ne m’amuserais pas à faire une vidéo plus longue si jamais ça intéresse juste de trois étudiants d’accord donc ce que je vais peut-être faire s’est lancé un sondage sur moodle je vous préviendrai je vous préviendrai au moment où je lancerai et si je vois que j’ai plus de dix étudiants qui aimeraient que je fasse une petite introduction régression spatiale alors je le ferai d’accord mais sinon je pense qu’on se contentera du modèle multi nominal jeu en soit ce qu’on a déjà vu jusqu’à maintenant est déjà largement suis initialement les tp n’était même pas censé aller plus loin que ce qu’on que ce qu’on vient de voir jusqu’à présent donc je pense que ça vaut quand même la peine de voir le modèle multi nauviale peut être aussi le modèle tôt bits et éventuellement si vous êtes motivés les régressions spatiale donc voilà je pense que maintenant vous avez un petit peu toutes les cartes en main pour commencer tout doucement de travail sains les consignes vont suivre on doit encore diallo diable votre professeur et moi-même là dessus mais donc pour faire simple sur base de ce qu’on a déjà fait jusqu’à maintenant déjà si si vous voulez travailler avec tout ce qu’on a fait pour le moment sinon vous êtes sûr dans le cas du tpa et de on a fait vraiment des modèles linéaires avec plutôt débat continue donc ce que vous devez trouver comme la zone et finalement c’est une base de données avec une variable dépendante qu’ils soient qu’ils soient dignes d’intérêt au quesnoy ne prenez pas je sais pas la taille la taille des gens que vous connaissez par exemple sur le sur leur sexe annonce n’a pas ce n’est pas très intéressant de faire ça c’est de trouver et des allemands une base données économiques allaient peut-être sur le site de l’osce aider à aller sur les sites des nations unies pour trouver des bases données intéressantes vous prenez une base au nez où vous avez minimum 3 variable continue donc une variable dépendante intéressante et une variable indépendante intéressante hockey et voilà vous menez l’agression fait tous les tests possibles vous traitez le plus proprement les données comme on a vu d’accord vous vais même aller plus loin si vous voulez si vous voulez spécifié déteste qu’on n’a pas couvert dans le court et sinon il vous faudra bon une soit dans la même base de données soit dans une base de données différentes moi je n’en ai pas encore discuté avec le brasseur mais a priori on vous laisse réutiliser les basanés qui n’ont rien à voir l’une avec l’autre comme si vous divisez votre travail en plusieurs parties je suis presque sûr que le professeur acceptera parce que c’est pas forcément évident de trouver une base de données dans lesquels on a autant de variables qui sont intéressantes à étudier il faut donc une autre vague de données où vous avez une voix indépendante qui puisse être binaire précisément qu’ils puissent être catégorielles et qui soit intéressante d’accord ne me prenez pas ne fait pas une régression ou vous mesurez la probabilité d’être un homme une femme par exemple ça n’a pas beaucoup d’intérêt la probabilité par contre d’être malade et vous régressez ça par exemple sur vous régressez du coup le fait d’être malade sur l’apparition de certains symptômes ça directement ça beaucoup plus d’intérêt il ya beaucoup d’autres possibilités bien sûr et vous trouvez je suis sûre plus des bases de données qu’ils contiennent s’il ya des choses assez intéressantes si jamais vous galérez vraiment à trouver des bases de données vous pouvez toujours me contacter d’accord donc pas de stress à ce niveau là très vite des consignes durant son modèle donc voilà je vous souhaite une bonne période de confinement je crois vous m’écoutez vous aura probablement à ce stade-là travail et bien bon courage à prenez soin de vous et de vos proches on va s’en sortir ok donc passé une passer une bonne journée une bonne soirée et on se retrouve avec un peu de chance pour les présentations orales en juin j’avoue que je suis assez dubitatif mais je l’espère mon travail et bon courage pour la suite

Leave a comment