„Die wachsende Datenverfügbarkeit erfordert eine methodologische Weiterentwicklung der Ökonometrie, da die bisherige Grundausrichtung auf statistische Inferenz aus Stichproben abzielt, weswegen wir bisher den asymptotischen Eigenschaften der „Schätzer“ große Bedeutung beimaßen.
Meine Lesart der Diskussion ist, dass die Analyse großer Datensätze vorerst große Risiken birgt: Diese Daten wurden nicht zur ökonometrischen/ökonomischen Analyse erhoben (Was bilden sie tatsächlich ab und erlauben sie Rückschlüsse auf die Grundgesamtheit?); Es gibt einen Unterschied zwischen partieller und allgemeiner Gleichgewichtstheorie. Das heißt, einfach dasselbe mit anderen bzw. mehr Daten zu schätzen, ist nicht dasselbe! Big oder Linked-Data bieten aber auch riesige Möglichkeiten, die u.a. in der Zusammenarbeit von Ökonomen und Informatikern liegt.“
Titelbild: e2reneta (CC BY-NC 2.0)
Bild im Text: Martin Siddiqui / ZU
Haben Sie Anmerkungen zum Beitrag?
Ihre Sichtweise ist uns wichtig! Der Leserbrief gelangt direkt in die Redaktion und wird nach Prüfung veröffentlicht.
Vielen Dank für Ihr Verständnis!
Antwort auf: Direkt auf das Thema antworten