Cuando vamos a diseñar un mecanismo de CI para una subasta, solemos suponer que cada agente $i$ de tipo $\theta_i$ se extrae de su espacio de tipos $\Theta_i$ que contiene todos los tipos posibles de $i$ . Por ejemplo, en una subasta de un solo artículo, podemos suponer que $\theta_i \in \mathcal{R}^+$ es decir, $\Theta_i = \mathcal{R}^+$ .
En algún escenario, la información previa sobre el espacio de tipos puede ser adquirida por el subastador por algún medio. Por ejemplo, el subastador puede confirmar que $\theta_i \le M$ antes de diseñar cualquier mecanismo. Es decir, el dinero máximo que puede pagar cada agente no es más que $M$ . La subastadora puede obtener la información de alguna consulta estadística en el mercado de datos, si tenemos que explicar cómo la obtiene. Entonces podemos suponer válidamente que $\Theta_i$ es $[0, M]$ en lugar de $\mathcal{R}^+$ . Supongamos que un agente sólo puede beneficiarse a sí mismo informando erróneamente de algunos $\theta_i^{\prime} > M$ . Entonces no tenemos que preocuparnos por la veracidad porque ahora $\Theta_i = [0, M]$ . Hay que tener en cuenta que los agentes no informarían de más de $M$ porque están informados del acceso del subastador a las estadísticas (la cuestión de la privacidad no se considera aquí).
El ejemplo anterior puede no estar bien construido, sin embargo estoy considerando un escenario similar donde algunas restricciones en el espacio de tipos de los agentes pueden hacer que los mecanismos veraces sean más fáciles de conseguir, o incluso hacer que los mecanismos no veraces sean veraces. No he encontrado ninguna literatura sobre este tema. Agradezco si alguien puede orientarme sobre dónde buscar dicha investigación y si esto es válido como punto de investigación.