6 votos

Definición de la centralidad de la difusión en Banerjee et al. (2019)

Estoy leyendo "Using gossips to spread information: Theory and evidence from two Randomised Control Trials", de Banerjee, Chandrashekhar, Duflo y Jackson, donde discuten la eficacia de los chismes en la difusión de información sobre políticas/ofertas comerciales.

En este trabajo, en la página 21, han introducido una versión generalizada del parámetro de red "Diffusion Centrality", que los mismos autores habían definido anteriormente en un trabajo de 2013.

Si $w$ es una matriz de adyacencia dirigida y ponderada para una red social, entonces definen una "matriz de audiencia" para $w$ y la duración del tiempo $T \in N$ como:

$$H(w, T) = \sum_{t=1}^T (w)^t$$

El $ij$ -a entrada de $H$ , $H(w, T)_{ij}$ es el número esperado de veces, dentro de $T$ períodos, que $j$ oye hablar de una información procedente de $i$ .

Entonces la Centralidad de Difusión se define como:

$$DC(w, T) = H(w, T) \cdot 1$$

El documento dice: " $DC(w, T)_i$ es el número total esperado de veces que una información que se origina en $i$ es escuchada por cualquiera de los miembros de la sociedad durante un $T$ -período intervalo de tiempo".

No estoy muy familiarizado con la economía de red. Me gustaría entender por qué $H$ y $DC$ coinciden con las descripciones verbales de los mismos, es decir, por qué el $ij$ -a entrada de $H$ el número esperado de veces $j$ escucha algo de $i$ y de forma similar para $DC$ . Una prueba escrita directamente en la respuesta, o una referencia a algún buen material para estudiar esto ayudará.

5voto

tdm Puntos 146

Permítanme usar la letra mayúscula $W$ en lugar de la letra minúscula $w$ (como $W$ es en realidad una matriz).

Por lo tanto, dejemos que $W$ sea la matriz que contiene en la fila $i$ y la columna $j$ la probabilidad de que $j$ oye de $i$ . A continuación, el número medio de piezas de información que $j$ obtiene de $i$ en un periodo viene dado por $W(i,j)$ .

El número medio de información que $j$ obtiene de $i$ que tarda 2 periodos en viajar es la información que va primero de $i$ a alguna persona intermedia $k$ y luego de $k$ a $j$ a través de la ruta $i \to k \to j$ . La cantidad de información que se transmite por esta vía es $W(i,k) \cdot W(k,j)$ . Para ver esto, observe que $W(i,k)$ es la cantidad de información enviada a $k$ y de esto una fracción $W(k,j)$ se envía a $j$ . Ahora, esto tiene que ser sumado sobre todos los nodos intermedios $k$ (es decir, todos los caminos de longitud 2). por lo que obtenemos: $$ \sum_{k} W(i,k) \cdot W(k,j) = (W \times W)_{i,j} = (W^2)_{i,j} $$ Aquí $\times$ es la multiplicación de matrices.

Veamos ahora la información que toma 3 periodos. Esta es la información que va de $i$ a algún intermedio $k$ entonces de $k$ a algún intermedio $\ell$ y finalmente a $j$ , por lo que el camino $i \to k \to \ell \to j$ . La cantidad de información en este camino es $W(i,k) \cdot W(k,\ell) \cdot W(\ell, j)$ . Si sumamos todos estos caminos de longitud 3, obtenemos: $$ \sum_k \sum_\ell W(i,k) \cdot W(k,\ell) \cdot W(\ell, j) = (W \times W \times W)_{i,j} = (W^3)_{i,j}. $$ Si continuamos, podemos generalizar esto a cualquier camino de longitud $T$ . La información enviada desde $i$ a $j$ a través de todos esos caminos viene dada por: $$ (W \times W \times \ldots W)_{i,j} = (W^T)_{i,j}. $$

Ahora bien, si la información va de $i$ a $j$ ya sea que tome 1 período, 2 períodos, 3 períodos, ... $T$ periodos para viajar. Por lo tanto, para calcular el total de piezas de información esperadas que $j$ recibe de $i$ en $T$ períodos viene dada por la suma de todos estos períodos: $$ H(W, T) = \sum_{t = 1}^T (W^t)_{i,j}. $$ Ahora la cantidad total de información enviada desde $i$ y escuchado por alguien puede obtenerse tomando la suma sobre todos los receptores $j$ . $$ DC(W,T) = \sum_{j} (H(W,T))_{i,j} = (H(W,T)\times 1)_{i,j} $$ Esto equivale a sumar las filas de la matriz $H(W,T)$ .

Un ejemplo

Tomemos el ejemplo de tres individuos $1,2$ y $3$ . Supongamos que $W$ está dada por: $$ W = \begin{bmatrix} 0 & 0.3 & 0.2\\ 0.2 & 0 & 0.6\\ 0 & 0.4 & 0\end{bmatrix} $$ Esto implica que (por ejemplo) la probabilidad de que 2 escuche a 1 en un periodo es igual a 0,3.

Entonces $$ W^2 = \begin{bmatrix} 0.06 & 0.08 & 0.18\\ 0 & 0.3 & 0.04\\ 0.08 & 0 & 0.24\end{bmatrix} $$ Aquí, por ejemplo, la cantidad recibida por 2 de 1 en dos períodos es $0.08 = 0.2 \times 0.4$

A continuación, multiplicando $W^2$ una vez más por $W$ da: $$ W^3 = \begin{bmatrix} 0.016 & 0.09 & 0.06\\ 0.06 & 0.016 & 0.18\\ 0 & 0.12 & 0.016\end{bmatrix} $$ Entonces: $$ H(W, 3) = W + W^2 + W^3 = \begin{bmatrix} 0.076 & 0.47 & 0.44\\ 0.26 & 0.316 & 0.82\\ 0.08 & 0.52 & 0.256\end{bmatrix} $$ Así que en tres períodos $2$ recibe de media $0.47$ información de $1$

La información total enviada desde $1$ a alguien se calcula tomando la suma de los elementos de la fila $1$ , lo que da: $$ 0.076 + 0.47 + 0.44 = 0.986 $$ En general: $$ DC(W, 3) = \begin{bmatrix} 0.986\\1.396\\0.856\end{bmatrix} $$

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X