„Die wachsende Datenverfügbarkeit erfordert eine methodologische Weiterentwicklung der Ökonometrie, da die bisherige Grundausrichtung auf statistische Inferenz aus Stichproben abzielt, weswegen wir bisher den asymptotischen Eigenschaften der „Schätzer“ große Bedeutung beimaßen.
Meine Lesart der Diskussion ist, dass die Analyse großer Datensätze vorerst große Risiken birgt: Diese Daten wurden nicht zur ökonometrischen/ökonomischen Analyse erhoben (Was bilden sie tatsächlich ab und erlauben sie Rückschlüsse auf die Grundgesamtheit?); Es gibt einen Unterschied zwischen partieller und allgemeiner Gleichgewichtstheorie. Das heißt, einfach dasselbe mit anderen bzw. mehr Daten zu schätzen, ist nicht dasselbe! Big oder Linked-Data bieten aber auch riesige Möglichkeiten, die u.a. in der Zusammenarbeit von Ökonomen und Informatikern liegt.“
Titelbild: e2reneta (CC BY-NC 2.0)
Bild im Text: Martin Siddiqui / ZU