Die große wissenschaftstheoretische Herausforderung sah Prescott in der Entwicklung eines theoretischen Rahmenwerks, das er als "critical data studies" bezeichnete: "Big Data needs Big Theory!" Ziel müsse eine "humanization of Big Data" sein. Denn Daten sind nicht Gegebenheiten, sondern werden erst aus der Beobachtung heraus gewonnen. Prescott zitierte den Glasgower Archäologen Jeremy Huggett: "Data are theory-laden, and relationships are constantly changing, depending on context” [5] und listete dann den Sieben-Punkte-Katalog von Craig Dalton und Jim Thatcher der Critical Data Studies [6] auf, darunter: Daten müssten in Zeit und Raum verortet werden; sie müssten als inhärent politisch und interessegeleitet verstanden werden, sie könnten nie für sich selber sprechen und "Rohdaten" könne es in diesem Sinne nicht geben.
Einen überraschend tiefen Einblick in die Industrie gab Stephan Fischer(Ditzingen) in seinem Vortrag über die Trumpf Werkzeugmaschinenbau GmbH mit dem Titel "Data-Value Services as a Differentiator for Machine Tools". Als ehemaliger Abteilungsleiter bei SAP wechselte er Anfang 2014 als neuer IT-Direktor in das sich aktuell auf Lasertechnik stützende Industrieunternehmen, um es in das vernetzte digitale Zeitalter zu führen. Sei es in einem ersten Schritt darum gegangen, die physische mit der virtuellen Welt zu verknüpfen und beispielsweise mit Sensoren die Qualität der Lasernadel zu prüfen ("smart data"), gehe es derzeit um die Optimierung des gesamten Produktionssystems ("smart factory") anhand der massenhaft erzeugten Daten und des Maschinellen Lernens – die Zukunft jedoch werde darin liegen, das Internet of Services als Business Modell zu entwickeln. Bei dem Prozess der Digitalisierung müssten essentielle Fragen geklärt werden, z. B. wie die analogen Daten in digitale Form umgewandelt, wie Daten verwaltet werden und wie Daten sicher vom Kunden zu Trumpf gelangen – oder von Trumpf zu wissenschaftlichen Institutionen. Im "Smart Data Innovation Lab" arbeiten Trumpf und andere Partner aus der Wirtschaft mit der Wissenschaft zusammen, zum Beispiel um zu berechnen, für wann mit einer Wartung zu rechnen ist. Von dem Datenaustausch mit der Wissenschaft, so Fischer, erhoffe man sich strategische Vorteile.
Auch der Leiter des Instituts für Arbeitsmarkt- und Berufsforschung Stefan Bender (Nürnberg) sieht in der Datenfreigabe für die Wissenschaft einen Vorteil für die Planung von zukünftigen politischen Maßnahmen wie auch mittelbar für das Branding von Deutschland. In seinem Vortrag "Researcher Access, Economic Value and the Public Good" forderte er die Entwicklung von Dokumentations-standards, die Definition von Datenreproduzierbarkeit und vor allem einen geeigneten Umgang mit Fehlern bei Big Data. Weiterhin führte Bender die Unterscheidung von "made data”/"designed data" und "found data”/"organic data" ein, die aber nicht miteinander konkurrierten, sondern zusammengeführt werden könnten und sich daher ergänzten. Denn Big Data sei zwar billiger in der Generierung, nicht aber in der Bereinigung. Bender interpretierte die bekannte Öl-Metapher noch einmal neu: Daten könnten auch großen Schaden wie eine Ölpest verursachen.
Für den Physiker mit Soziologielehrstuhl Dirk Helbing (Zürich) gibt es zurzeit ein Ungleichgewicht zwischen den Erkenntnissen, die wir über die Natur und die wir über unsere Gesellschaft haben. Er stellte sich die Frage: "How we can build a smart resilient digital society?” [7]. Big Data könne uns dabei helfen, dieses bestehende Ungleichgewicht zu beseitigen. Helbing stellt sich hierfür eine Welt vor, mit vielen verteilten und selbstorganisierten Systemen und einer dezentralisierten Kontrolle bzw. Intelligenz, die auf Grundlage der Daten entscheidet. Ein solches "Planetarisches Nervensystem" zusammen mit einem "Living Earth Simulator", der verschiedene Änderungen und Einflüsse auf der Welt simulieren könnte, wäre seiner Meinung nach im Stande, grundlegende Einsichten in unsere Gesellschaft zu enthüllen. Gleichzeitig machte Helbing auf das Verfallsdatum von Daten aufmerksam, da bestimmte Datensätze nach kurzer Zeit jeglichen Wert verlieren. Hierzu gehörten bestimmt auch einige der Twitter-Nachrichten, die parallel zur Konferenz unter dem Hashtag #HKBigData verschickt wurden.
Einen technischen Blick auf Big Data lieferte Shivakumar Vaithyanathan von IBM Big Data Analytics (San José), der zunächst drei unterschiedliche Big Data-Problemstellungen vorstellte: 1) Fragestellungen mit einer schier riesigen Datenmenge, 2) Fragestellungen, die mit einer großen Anzahl an Modellen, die verschiedene Aspekte abdeckten, behandelt würden, und 3) Fragestellungen, bei denen nur geringe Mengen an Daten vorhanden seien, aber bei der anhand von Simulationen eine riesige Datenmenge erzeugt werde. Diesen Herausforderungen begegneten aktuell Datenwissenschaftler (Data Scientists), die aus der Menge von Daten Erkenntnisse extrahierten. Hierzu müsse der Datenwissenschaftler beide Welten kennen (die noch "normale" IT Welt und die "Big Data" Welt) und zwischen beiden Welten vermitteln und übersetzen. Das große Ziel von Big Data Analytics sei daher, eine solche Übersetzung automatisch durchzuführen und somit die Ideen des Datenwissenschaftlers automatisiert in die Welt der Softwareumgebung Hadoop und Co. umzuwandeln.
In mehreren Zeitfenstern stellten bei der Herrenhäuser Konferenz insgesamt 29 Nachwuchswissenschaftler(innen) aus 16 Ländern, für die die Stiftung Reisestipendien zur Verfügung gestellt hatte, in dreiminütigen Lightning Talks ihre Forschungsprojekte aus verschiedenen wissenschaftlichen Disziplinen vor. Ihre Vorträge und die Poster wurden auf Basis von Voten der Konferenzteilnehmer am Ende der Herrenhäuser Konferenz prämiert. Für die beste Präsentation wurde der Historiker Ian Milligan (University of Waterloo) für seine Darstellung des Projekts "Finding Community in the Ruins of GeoCities" ausgezeichnet, für das beste Poster der Sozialwissenschaftler Josh Cowls (Oxford) für "Using Big Data for Valid Research: Three Challenges".
Eine sehr lebhafte Sektion der Konferenz war juristischen Fragen gewidmet. Big Data sind letztlich Daten, für die seitens der Wissenschaft keine informierte Einwilligung des Einzelnen ("informed consent") eingeholt worden ist oder eingeholt werden kann. Hier setzte die Wirtschaftswissenschaftlerin Julia Lane(Straßburg/Melbourne) [8] in ihrem Vortrag "Big Data, Science Policy, and Privacy" an. Man müsse sich erst einmal bewusst machen, dass man mit Big Data auch zu völlig falschen Ergebnissen kommen könnte – eine These, die Julia Lane mit den Ereignissen rund um den Bombenanschlag von Boston verdeutlichte, bei dem ein durch Big Data-Analysen unschuldig verdächtigter Mann, weil öffentlich der Tat bezichtigt, Selbstmord beging. Dies hat zudem ein Rechtsproblem aufgeworfen: "What is the legal framework for found data on human beings?" Die informierte Einwilligung, die in den USA in der sogenannten Common Rule zum Schutz von menschlichen Forschungssubjekten festgelegt ist, sei heute eine Fiktion, da in Zeiten von Big Data keine Anonymisierung von Daten mehr möglich sei. Der Einzelne habe oft keine Ahnung, welche Daten alle von ihm gespeichert seien und dass er über deren Zusammenführung jederzeit identifizierbar sei. Doch wie dann weiter sozialwissenschaftliche Forschung durchführen? Julia Lane forderte einen Runden Tisch, an dem Wissenschaft, Förderorganisationen und öffentliche Hand eine Roadmap entwerfen, um gemeinsam dieses Problem anzugehen.
Dass heute keine informierte Einwilligung mehr möglich ist, diese Ansicht teilte auch der deutsche Jurist Thomas Hoeren (Münster) in seinem Vortrag "From Alibaba to Abida. Legal Issues concerning Big Data". In Zeiten von Big Data gebe es fast keine nicht-persönlichen Daten mehr. Er bezeichnete die deutsche Rechtsprechung zur Schufa als das erste richtige Big Data-Gesetz, da es erstens wissenschaftliche Standards bei dem Datenumgang und zweitens Transparenz festschreibe: Jeder Bürger hat jederzeit das Recht, Auskunft über die dort über ihn gespeicherten Daten zu bekommen. Ansonsten warf Hoeren viele Fragen auf: Wer haftet für falsch erhobene Daten? Gibt es ein Eigentumsrecht an Daten und wenn ja, wem gehört was? Wie sieht es mit den Persönlichkeitsrechten aus? Welche Rolle spielen die beiden großen Rechtstraditionen, das angelsächsische Common Law und das Römische Recht, beim Umgang mit den Daten? Big Data, so Hoerens Fazit, wird das gesamte Gesetzeswerk verändern. Im vom BMBF geförderten Begleitprojekt "Assessing Big Data" (ABIDA – daher auch der Titel seines Vortrags) , an dem Hoeren beteiligt ist, werden die vielschichtigen Entwicklungen von Big Data-Anwendungen, Datenströmen und Geschäftsmodellen kontinuierlich beobachtet und erfasst.
Wie nüchtern Juristen die derzeitige Situation in Zeiten von Big Data einschätzen, machte auch Nikolaus Forgó (Hannover) in seinem Vortrag deutlich. Dieser trug den pointierten Titel "Ignore the Facts, Forget the Rights: European Principles in an Era of Big Data". Forgo setzte am sogenannten "Volkszählungsurteil" vom 15. Dezember 1983 an, als das Bundesverfassungsgericht in einer Grundsatzentscheidung das Grundrecht auf informationelle Selbstbestimmung als Ausfluss des allgemeinen Persönlichkeitsrechts und der Menschenwürde etablierte. Das Urteil galt als Meilenstein des Datenschutzes und ging in die Charta der Grundrechte der Europäischen Union in Artikel 7 und insbesondere in Artikel 8 (2) ein: Personenbezogene Daten dürfen "nur nach Treu und Glauben für festgelegte Zwecke und mit Einwilligung der betroffenen Person oder auf einer sonstigen gesetzlich geregelten legitimen Grundlage verarbeitet werden. Jede Person hat das Recht, Auskunft über die sie betreffenden erhobenen Daten zu erhalten und die Berichtigung der Daten zu erwirken." Doch wie ist die Wirklichkeit heute? Sie sei von Kontrollverlust des Einzelnen über "seine" Daten gekennzeichnet und damit mit Selbstverlust: "If the product is for free, you are the product". Drei Problemfelder müssten gleichzeitig und weltweit geklärt werden: Fragen des Eigentumsrechts, der Achtung der Privatheit wie auch des Urheberrechts.