Des articles

1.4 : 04 Vecteurs aléatoires et indépendance - Mathématiques


1.4 : 04 Vecteurs aléatoires et indépendance - Mathématiques

Problème 500

10 questions sur les matrices non singulières, les matrices inversibles et les vecteurs linéairement indépendants.

Le quiz est conçu pour tester votre compréhension des propriétés de base de ces sujets.

Vous pouvez répondre au quiz autant de fois que vous le souhaitez.

Les solutions seront données après avoir terminé les 10 problèmes.
Clique le Afficher la question bouton pour voir les solutions.

par Yu · Publié 19/06/2017 · Dernière modification 23/08/2017


Problème 704

Soit $A=egin
2 & 4 & 6 & 8 \
1 ſ & 0 & 5 \
1 & 1 & 6 & 3
finir$.
(une) Trouvez une base pour l'espace nul de $A$.

(b) Trouvez une base pour l'espace de ligne de $A$.

(c) Trouvez une base pour la plage de $A$ qui se compose de vecteurs colonnes de $A$.

(ré) Pour chaque vecteur colonne qui n'est pas un vecteur de base que vous avez obtenu dans la partie (c), exprimez-le comme une combinaison linéaire des vecteurs de base pour la plage de $A$.


1.4 : 04 Vecteurs aléatoires et indépendance - Mathématiques

Dans la vraie vie, nous devons généralement gérer plusieurs variables aléatoires. Par exemple, si vous étudiez les caractéristiques physiques des personnes dans une certaine zone, vous pouvez choisir une personne au hasard et ensuite regarder son poids, sa taille, etc. Le poids de la personne choisie au hasard est une variable aléatoire, tandis que son/ sa taille en est une autre. Non seulement devons-nous étudier chaque variable aléatoire séparément, mais nous devons également examiner s'il existe dépendance (c'est-à-dire la corrélation) entre eux. Est-il vrai qu'une personne plus grande est plus susceptible d'être plus lourde ou non ? Les questions de dépendance entre plusieurs variables aléatoires seront étudiées en détail plus loin, mais ici nous aimerions parler d'un scénario particulier où deux variables aléatoires sont indépendant.

Le concept de variables aléatoires indépendantes est très similaire aux événements indépendants. Rappelez-vous, deux événements $A$ et $B$ sont indépendants si nous avons $P(A,B)=P(A)P(B)$ (rappelez-vous que la virgule signifie et, c'est-à-dire $P(A,B)=P(A extrm < et >B)=P(A cap B)$). De même, nous avons la définition suivante pour les variables aléatoires discrètes indépendantes.

Intuitivement, deux variables aléatoires $X$ et $Y$ sont indépendantes si la connaissance de la valeur de l'une ne change pas les probabilités de l'autre. Autrement dit, si $X$ et $Y$ sont indépendants, on peut écrire $P(Y=y|X=x)=P(Y=y), extrm < pour tout >x,y.$ Similaire à événements indépendants, il est parfois facile de soutenir que deux variables aléatoires sont indépendantes simplement parce qu'elles n'ont aucune interaction physique entre elles. Voici un exemple simple : je lance une pièce $2N$ fois. Soit $X$ le nombre de faces que j'observe dans le premier $N$ tirage au sort et soit $Y$ le nombre de face que j'observe dans le deuxième $N$ tirage au sort. Puisque $X$ et $Y$ sont le résultat de tirages au sort indépendants, les deux variables aléatoires $X$ et $Y$ sont indépendantes. En revanche, dans d'autres scénarios, il peut être plus compliqué de montrer si deux variables aléatoires sont indépendantes.

Je lance une pièce deux fois et définis $X$ comme étant le nombre de faces que j'observe. Ensuite, je lance la pièce deux fois de plus et définis $Y$ comme étant le nombre de faces que j'observe cette fois. Trouvez $Pigg((X 1)igg)$.


Des noms

Une grande caractéristique des vecteurs de R est que chaque élément peut recevoir un nom. Étiqueter les éléments peut souvent rendre votre code beaucoup plus lisible. Vous pouvez spécifier des noms lorsque vous créez un vecteur sous la forme nom = valeur . Si le nom d'un élément est un nom de variable valide, il n'a pas besoin d'être placé entre guillemets. Vous pouvez nommer certains éléments d'un vecteur et en laisser d'autres vides :

Vous pouvez ajouter des noms d'éléments à un vecteur après sa création en utilisant la fonction de noms :

Cette fonction de noms peut également être utilisée pour récupérer les noms d'un vecteur :

Si un vecteur n'a pas de nom d'élément, la fonction names renvoie NULL :


Discussion

Une situation fréquente dans l'apprentissage automatique est d'avoir une énorme quantité de données, cependant, la plupart des éléments des données sont des zéros. Par exemple, imaginez une matrice où les colonnes sont chaque film sur Netflix, les lignes sont chaque utilisateur de Netflix et les valeurs sont le nombre de fois qu'un utilisateur a regardé ce film particulier. Cette matrice aurait des dizaines de milliers de colonnes et des millions de lignes ! Cependant, comme la plupart des utilisateurs ne regardent pas la plupart des films, la grande majorité des éléments serait nulle.

Les matrices creuses ne stockent que des éléments non nuls et supposent que toutes les autres valeurs seront nulles, ce qui entraîne des économies de calcul importantes. Dans notre solution, nous avons créé un tableau NumPy avec deux valeurs différentes de zéro, puis l'avons converti en une matrice creuse. Si nous regardons la matrice creuse, nous pouvons voir que seules les valeurs non nulles sont stockées :

Il existe plusieurs types de matrices creuses. Cependant, dans ligne clairsemée compressée Les matrices (CSR), (1, 1) et (2, 0) représentent les indices (indexés à zéro) des valeurs non nulles 1 et 3, respectivement. Par exemple, l'élément 1 est dans la deuxième ligne et la deuxième colonne. Nous pouvons voir l'avantage des matrices creuses si nous créons une matrice beaucoup plus grande avec beaucoup plus d'éléments zéro, puis comparons cette matrice plus grande avec notre matrice creuse d'origine :

Comme nous pouvons le voir, malgré le fait que nous ayons ajouté beaucoup plus d'éléments zéro dans la matrice plus grande, sa représentation creuse est exactement la même que notre matrice creuse d'origine. C'est-à-dire que l'ajout de zéro élément n'a pas modifié la taille de la matrice creuse.

Comme mentionné, il existe de nombreux types différents de matrices creuses, telles que la colonne creuse compressée, la liste de listes et le dictionnaire de clés. Bien qu'une explication des différents types et de leurs implications dépasse le cadre de ce livre, il convient de noter que s'il n'existe pas de "meilleur" type de matrice clairsemée, il existe des différences significatives entre eux et nous devons être conscients de la raison pour laquelle nous choisissons un type plutôt qu'un autre.


1. Introduction

Mesurer et tester la dépendance entre |$$| et |$$| est un problème fondamental en statistique. La corrélation de Pearson est peut-être la première et la plus connue des grandeurs pour mesurer le degré de dépendance linéaire entre deux variables aléatoires univariées. Des extensions incluant le rho de Spearman (1904), le tau de Kendall (1938) et celles dues à Hoeffding (1948) et Blum (1961) peuvent être utilisées pour mesurer la dépendance non linéaire sans conditions de moment.

Les tests d'indépendance ont des applications importantes. Deux exemples de la recherche en génomique testent si deux groupes de gènes sont associés et examinent si certains phénotypes sont déterminés par des génotypes particuliers. Dans la recherche en sciences sociales, les scientifiques s'intéressent à la compréhension des associations potentielles entre les caractéristiques psychologiques et physiologiques. Wilks (1935) a introduit un test paramétrique basé sur |$|>_<,>| / (|>_| |>_|)$|⁠ , où |$>_<,> = ><(<^< m T>>,<^< m T>>)<^< m T>>>inmathbb^<(p+q) imes (p+q)>$|⁠ , |$>_= >()inmathbb^

$| et |$>_ = >()inmathbb^$|⁠ . Tout au long de |$>_ = >()$| représente la matrice de covariance de |$$| et |$|>_|$| représente le déterminant de |$>_$|⁠ . Hotelling (1936) a suggéré le coefficient de corrélation canonique, qui cherche |$>inmathbb^p$| et |$>inmathbb^q$| telle que la corrélation de Pearson entre |$><^< m T>>$| et |$><^< m T>>$| est maximisé. Le test de Wilks et la corrélation canonique peuvent être utilisés pour tester l'indépendance entre |$$| et |$$| quand ils suivent des distributions normales. Des extensions non paramétriques du test de Wilks ont été proposées par Puri & Sen (1971), Hettmansperger & Oja (1994), Gieser & Randles (1997), Taskinen et al. (2003) et Taskinen et al. (2005). Ces tests peuvent être utilisés pour tester l'indépendance entre |$$| et |$$| lorsqu'elles suivent des distributions à symétrie elliptique, mais elles sont inapplicables lorsque les hypothèses de normalité ou d'ellipticité sont violées ou lorsque les dimensions de |$$| et |$$| dépasser la taille de l'échantillon. De plus, les tests d'indépendance multivariés basés sur les rangs sont inefficaces pour tester la dépendance non monotone ( Székely et al., 2007).

La corrélation de distance ( Székely et al., 2007) peut être utilisée pour mesurer et tester la dépendance entre |$$| et |$$| dans des dimensions arbitraires sans supposer la normalité ou l'ellipticité. A condition que |$E(|| +||) < infty$|⁠ , la corrélation de distance entre |$$| et |$$|⁠ , noté |$>(,)$|⁠ , est non négatif, et est égal à zéro si et seulement si |$$| et |$$| sont indépendants. Tout au long, nous définissons |$|| = (<^< m T>>)^<1/2>$| pour un vecteur |$$|⁠ . Székely & Rizzo (2013) ont observé que la corrélation de distance peut être affectée par les dimensions de |$$| et |$$|⁠ , et en a proposé un estimateur sans biais lorsque |$$| et |$$| sont de grande dimension. Dans cet article, nous démontrerons que la corrélation de distance peut être moins efficace pour détecter la dépendance non linéaire lorsque l'hypothèse |$E(|| +||) < infty$| est violé. Pour supprimer cette condition de moment, Benjamini et al. (2013) ont suggéré d'utiliser des rangs de distances, mais cela implique la sélection de plusieurs paramètres de réglage, dont le choix est un problème ouvert. Les propriétés asymptotiques d'un test basé sur des rangs de distances doivent également être approfondies.

Nous proposons d'utiliser la corrélation de projection pour caractériser la dépendance entre |$$| et |$$|⁠ . La corrélation de projection projette d'abord les vecteurs aléatoires multivariés dans une série de variables aléatoires univariées, puis détecte la dépendance non linéaire en calculant la corrélation de Pearson entre les variables aléatoires univariées dichotomisées. La corrélation de projection entre |$$| et |$$|⁠ , noté |$>(,)$|⁠ , est non négatif et vaut zéro si et seulement si |$$| et |$$| sont indépendants, il est donc généralement applicable comme indice pour mesurer le degré de dépendance non linéaire sans conditions de moment, normalité ou ellipticité ( Tracz et al., 1992). Le test de corrélation de projection pour l'indépendance est cohérent par rapport à toutes les alternatives de dépendance. La corrélation de projection est exempte de paramètres de réglage et est invariante à la transformation orthogonale. Nous montrerons que l'estimateur d'échantillon de la corrélation de projection est |$n$| -cohérent si |$$| et |$$| sont indépendants et root- |$n$| -cohérent autrement. Nous menons des études de Monte Carlo pour évaluer les performances d'échantillons finis du test de corrélation de projection. Les résultats indiquent que la corrélation de projection est moins sensible aux dimensions de |$$| et |$$| que la corrélation de distance et même sa version améliorée ( Székely & Rizzo, 2013), et est plus puissante à la fois que la corrélation de distance et les rangs de distances, surtout lorsque les dimensions de |$$| et |$$| sont relativement grandes ou que les conditions de moment requises par la corrélation de distance sont violées.


Nous devons considérer les deux composantes d'un vecteur, à savoir la direction et la magnitude lors de l'utilisation de l'addition vectorielle.

Gardez à l'esprit que les deux vecteurs avec la même amplitude et la même direction peuvent être ajoutés comme des scalaires.

Dans ce sujet, nous explorerons les méthodes graphiques et mathématiques d'addition vectorielle, notamment :

  1. Addition de vecteurs à l'aide de la règle tête-à-queue
  2. Addition vectorielle à l'aide de la méthode du parallélogramme
  3. Addition vectorielle à l'aide des composants

Addition de vecteurs à l'aide de la règle tête-à-queue

L'addition de vecteurs peut être effectuée en utilisant la célèbre méthode tête-bêche. Selon cette règle, deux vecteurs peuvent être additionnés en les plaçant ensemble de sorte que la tête du premier vecteur rejoigne la queue du deuxième vecteur. Le vecteur somme résultant peut alors être obtenu en joignant la queue du premier vecteur à la tête du deuxième vecteur. Ceci est parfois également connu sous le nom de méthode triangulaire d'addition vectorielle.

L'addition de vecteurs utilisant la règle tête-à-queue est illustrée dans l'image ci-dessous. Les deux vecteurs P et Q sont ajoutés en utilisant la méthode tête-bêche, et nous pouvons voir le triangle formé par les deux vecteurs originaux et le vecteur somme.

Premièrement, les deux vecteurs P et Q sont placés ensemble de telle sorte que la tête du vecteur P relie la queue du vecteur Q. Ensuite, pour trouver la somme, un vecteur résultant R est dessiné de telle sorte qu'il relie la queue de P à la tête de Q.

Mathématiquement, la somme, ou la résultante, vecteur, R, dans l'image ci-dessous peut être exprimé comme :

R = P + Q

Addition vectorielle à l'aide de la méthode du parallélogramme

Pour comprendre l'addition vectorielle à l'aide de la méthode du parallélogramme, nous allons considérer et expliquer la figure ci-dessous.

Tout d'abord, dessinez les vecteurs donnés, UNE et B, pour avoir le même point initial comme indiqué dans l'image ci-dessous. Ensuite, dessinez un parallélogramme en utilisant les copies des vecteurs donnés.

Deuxièmement, dessinez la copie du vecteur B appelé B', et placez-le parallèle au vecteur B pour se connecter à la tête du premier vecteur, UNE. De même, dessinez une copie du vecteur UNE appelé UNE', et placez-le parallèlement à A pour que sa queue se connecte avec la tête du vecteur B.

Enfin, la résultante des deux vecteurs, qui est égale à la somme des vecteurs UNE et B, sera la diagonale du parallélogramme. Il peut être dessiné en joignant le point initial des deux vecteurs UNE et B à la tête des vecteurs UNE' et B'.

En résumé, trois étapes sont nécessaires pour effectuer l'addition vectorielle à l'aide de la méthode du parallélogramme :

Étape 1 : Placez les deux vecteurs de manière à ce qu'ils aient un point de départ commun

Étape 2 : Dessinez et complétez le parallélogramme en utilisant des copies des deux vecteurs originaux

Étape 3 : La diagonale du parallélogramme est alors égale à la somme des deux vecteurs

Addition vectorielle à l'aide des composants

Comme nous le savons, les vecteurs donnés en coordonnées cartésiennes peuvent être décomposés en leurs composantes horizontales et verticales. Par exemple, un vecteur P à un angle Φ, comme indiqué dans l'image ci-dessous, peut être décomposé en ses composants comme :

PX, qui représente la composante du vecteur P le long de l'axe horizontal (axe des x), et

Poui, qui représente la composante du vecteur P le long de l'axe vertical (axe des y).

On voit que les trois vecteurs forment un triangle rectangle et que le vecteur P peut être exprimé comme :

P = PX+ Poui

Mathématiquement, les composantes d'un vecteur peuvent également être calculées en utilisant la magnitude et l'angle du vecteur donné.

Px = P cos Φ

Py = p péché Φ

De plus, nous pouvons également déterminer le vecteur résultant si ses composantes horizontale et verticale sont données. Par exemple, si les valeurs de PXet Pouisont donnés, alors nous pouvons calculer la magnitude et l'angle du vecteur P comme suit :

|P| = (PX )^2+( Poui)^2

Et l'angle peut être trouvé comme:

Ainsi, en résumé, nous pouvons déterminer un vecteur résultant si ses composantes sont données. Alternativement, si le vecteur lui-même est donné, nous pouvons déterminer les composants en utilisant les équations ci-dessus.

De même, si les vecteurs sont exprimés par paires ordonnées (vecteurs colonnes), on peut effectuer l'opération d'addition sur les vecteurs à l'aide de leurs composantes. Par exemple, considérons les deux vecteurs M et N donné comme :

Effectuer une addition vectorielle sur les deux vecteurs équivaut à ajouter les composantes x et y respectives des deux vecteurs. Cela donne le vecteur résultant S:

S = M + N

S = (m1+n1, m2+ n2).

Il peut s'écrire explicitement sous la forme :

La magnitude du vecteur résultant S peut être calculé comme :

|S| = (SX )^2+( Soui)^2

Et l'angle peut être calculé comme:


Combiner l'encodeur variationnel dans le modèle

Pour résoudre le problème de la génération d'un ensemble diversifié d'exemples, j'ai combiné un Variation Autoencoder (VAE) à notre réseau. Je ne vais pas expliquer en détail les VAE ici, car il y a eu de très bons articles à leur sujet et une très belle implémentation de TensorFlow.

L'aide de VAE fait deux choses. Premièrement, ils nous permettent de encoder image existante dans un vecteur Z latent beaucoup plus petit, un peu comme la compression. Il le fait en passant une image à travers le réseau de codeurs, que nous appellerons le réseau Q, avec des poids . Et à partir de ce vecteur latent codé Z , le réseau générateur produira une image qui sera la plus proche possible de l'image d'origine transmise, c'est donc un système d'autoencodeur. Cela résout le problème que nous avions dans le modèle GAN, car si le générateur ne produit que certains chiffres, mais pas d'autres chiffres, il sera pénalisé car il ne reproduit pas beaucoup d'exemples dans l'ensemble d'apprentissage.

Jusqu'à présent, nous avons supposé que le vecteur Z était de simples variables gaussiennes unitaires indépendantes. Il n'y a aucune garantie que le réseau d'encodeur Q encode des images à partir d'une image d'apprentissage aléatoire X , pour produire des valeurs de Z qui appartiennent à une distribution de probabilité que nous pouvons reproduire et tirer au hasard, comme une gaussienne. Imaginez que nous nous arrêtions ici et que nous entraînions cet auto-encodeur tel qu'il est. Nous n'aurons pas la capacité de générer des images aléatoires, car nous n'avons pas la capacité de dessiner Z à partir d'une distribution aléatoire. Si nous tirons Z de la distribution gaussienne, ce ne sera que par hasard que Z ressemblera à une valeur correspondant à l'ensemble d'apprentissage et produira des images qui ne ressemblent pas à l'ensemble d'images autrement.

La capacité de contrôler exactement Distribution de Z est la deuxième chose que le VAE nous aidera à faire, et la principale raison pour laquelle le papier VAE est un papier si important et influent. En plus d'effectuer la fonction d'auto-encodage, les variables latentes Z générées à partir du réseau Q seront également ont la particularité d'être de simples variables aléatoires gaussiennes unitaires indépendantes. En d'autres termes, si X est une image aléatoire de notre ensemble d'apprentissage, appartenant à n'importe quelle distribution de probabilité étrange et compliquée, le réseau Q s'assurera que le Z est construit de manière à ce que P(Z|X) soit un simple ensemble de variables aléatoires gaussiennes unitaires indépendantes. Et ce qui est étonnant, c'est que cette différence entre la distribution de P(Z|X) et la distribution d'une distribution gaussienne (ils appellent cela la Divergence KL) peut être quantifié et minimisé à l'aide de la descente de gradient à l'aide d'une machinerie mathématique élégante, en injectant un bruit gaussien dans la couche de sortie du réseau Q. Ce modèle VAE peut être formé en minimisant la somme de l'erreur de reconstruction et de l'erreur de divergence KL en utilisant la descente de gradient, dans l'équation 10 de l'article VAE.

Notre modèle final CPPN combiné avec GAN + VAE :

Plutôt que de m'en tenir au modèle VAE pur, j'ai voulu combiner VAE avec GAN, car j'ai trouvé que si je m'en tenais uniquement au VAE, les images qu'il générait au final semblaient très floues et inintéressantes lorsque nous agrandissions l'image. Je pense que cela est dû au terme d'erreur calculé à partir des erreurs de pixels, et c'est un problème connu pour le modèle VAE. Néanmoins, il est toujours utile pour notre cause, et si nous parvenons à le combiner avec GAN, nous pourrons peut-être former un modèle capable de reproduire chaque chiffre et d'avoir l'air plus réaliste avec le réseau discriminateur agissant comme final filtre.

La formation de ce modèle combiné nécessitera quelques ajustements à notre algorithme existant, car nous devrons également nous entraîner pour optimiser l'erreur du VAE. Notez que nous ajusterons les deux et lors de l'optimisation à la fois pour G_loss et VAE_loss .

Algorithme CPPN+GAN+VAE pour 1 époque de formation :

L'astuce ici est de structurer et d'équilibrer la structure de tous les sous-réseaux, de sorte que G_loss et D_loss oscillent autour de 0,69 , afin qu'ils essaient mutuellement de s'améliorer en se combattant au fil du temps, et s'améliorent au même rythme. De plus, nous devrions voir le VAE_loss diminuer au fil du temps époque par époque, tandis que les deux autres réseaux s'affrontent. C'est une sorte d'art noir d'entraîner ces choses et de maintenir l'équilibre. Le VAE essaie de traverser une planche reliant deux vedettes rapides (G et D) essayant de se dépasser.

Après avoir entraîné le modèle, nous pouvons voir les résultats de l'alimentation de vecteurs aléatoires de Z, tirés de la distribution gaussienne unitaire, dans notre réseau G, et nous pouvons générer de grandes images aléatoires. Voyons avec quoi nous finissons !

Vecteurs latents aléatoires

Nous pouvons générer de grands échantillons aléatoires à partir de notre modèle entraîné en IPython :

Nous pouvons voir comment notre réseau de générateurs prend n'importe quel vecteur aléatoire Z, composé de 32 nombres réels, et génère une image aléatoire qui ressemble en quelque sorte à un chiffre basé sur les valeurs de Z.

La prochaine chose que nous voulons essayer est de comparer les exemples MNIST réels à ceux encodés automatiquement. C'est-à-dire, prenez une image MNIST aléatoire, encodez l'image en un vecteur latent Z, puis générez à nouveau l'image. Nous allons d'abord générer l'image avec les mêmes dimensions que l'exemple (26x26), puis une image 50 fois plus grande (1300x1300) pour voir le réseau imaginer à quoi devrait ressembler MNIST s'il était beaucoup plus grand.

Tout d'abord, nous tirons une image aléatoire de MNIST et l'affichons.

Ensuite, nous encodons cette image en Z.

A partir de Z, nous générons une image de reconstruction 26x26.

Nous pouvons également générer une image de reconstruction beaucoup plus grande en utilisant le même Z.

La structure VAE+GAN actuelle semble produire des versions troubles de l'image MNIST lorsque nous les agrandissons, comme si nous essayions de tirer quelque chose de la fumée.

Vous trouverez ci-dessous d'autres comparaisons d'exemples encodés automatiquement par rapport aux originaux. Parfois, le réseau fait des erreurs, il n'est donc pas parfait. Il y a un exemple d'un zéro qui est mal interprété comme un six, et un trois qui est totalement foiré. Vous pouvez essayer de générer vos propres échantillons d'écriture et alimenter une image dans IPython pour voir quels exemples auto-encodés sont générés. Peut-être qu'à l'avenir je pourrai faire une démo javascript pour le faire.

Échantillons encodés automatiquement

Comme indiqué précédemment, le vecteur Latent Z peut être interprété comme une version codée compressée d'images réelles, comme une version non linéaire de l'ACP. Ces 32 chiffres contiennent des informations contenant non seulement le chiffre représenté par l'image, mais également d'autres informations, telles que la taille, le style et l'orientation de l'image. Tout le monde n'écrit pas de la même manière, certaines personnes l'écrivent avec une boucle ou sans boucle, et certaines personnes écrivent des chiffres plus gros que d'autres, avec un trait de stylo plus agressif. Nous voyons que l'auto-encodeur peut capturer la plupart de ces informations avec succès et reproduire une version de l'image originale. Une analogie serait qu'une personne regarde une image et prenne des notes pour décrire une image en détail, puis qu'une autre personne reproduise l'image originale à partir des notes.


Exemples de tâches

Exemples de tâches d'avion

Solution: | un | = 2 2 + 4 2 = 4 + 16 = 20 = 2√ 5 .

Solution: | un | = 3 2 + (-4) 2 = 9 + 16 = 25 = 5.

Exemples de tâches spatiales

Solution: | un | = 2 2 + 4 2 + 4 2 = 4 + 16 + 16 = 36 = 6.

Solution: | un | = (-1) 2 + 0 2 + (-3) 2 = 1 + 0 + 9 = 10 .

Exemples de tâches spatiales à n dimensions

Solution: | un | = 1 2 + (-3) 2 + 3 2 + (-1) 2 = 1 + 9 + 9 + 1 = √ 20 = 2√ 5

Solution: | un | = 2 2 + 4 2 + 4 2 + 6 2 + 2 2 = 4 + 16 + 16 + 36 + 4 = √ 76 = 2√ 19 .

Bienvenue sur OnlineMSschool. Le propriétaire de ce site Web est le mathématicien Dovzhyk Mykhailo. J'ai conçu ce site Web et écrit toute la théorie mathématique, les exercices en ligne, les formules et les calculatrices.


Voir la vidéo: Векторски производ вектора (Décembre 2021).