Die wahren Fähigkeiten von KI neu überdenken
Ein kritischer Blick auf die Fähigkeiten von KI und den Hype darum.
― 8 min Lesedauer
Inhaltsverzeichnis
- Die mertonianischen Normen in der Wissenschaft
- Schmale KI vs. AGI
- Fehlinterpretation in der KI
- Infragestellung der Mustererkennung von KI
- Verständnis von Wirtschaftsdaten mit KI
- Untersuchung wirtschaftlicher Stimmungen mit KI
- Das Risiko der Überinterpretation
- Der Einfluss des Bestätigungs-Bias
- Fazit
- Originalquelle
- Referenz Links
Menschen sehen oft menschliche Eigenschaften in nicht-menschlichen Dingen. Wir geben unseren Autos Namen, reden mit unseren Haustieren und behandeln Gadgets so, als könnten sie uns verstehen. Diese Tendenz, genannt Anthropomorphismus, wird im Bereich der künstlichen Intelligenz (KI) immer häufiger, besonders bei grossen Sprachmodellen (LLMs). Diese Modelle, wie ChatGPT, lassen uns manchmal denken, sie könnten wie Menschen denken.
In diesem Artikel sprechen wir darüber, wie die Jagd nach Artificial General Intelligence (AGI) dazu führen kann, dass übertrieben wird, was diese KI-Modelle leisten können. AGI ist eine Idee, die sich auf Maschinen bezieht, die denken und handeln können wie ein Mensch in einer Vielzahl von Aufgaben. Wir äussern Bedenken, wie Menschen die Ergebnisse aus der KI-Forschung interpretieren und betonen die Notwendigkeit von Ehrlichkeit und Vorsicht, wenn es um Aussagen über die Fähigkeiten von KI geht.
Die mertonianischen Normen in der Wissenschaft
In einer Zeit, in der die Wissenschaft auf Skepsis stiess, schlug ein Wissenschaftler namens Robert K. Merton vier wichtige Prinzipien für wissenschaftliche Praktiken vor. Diese Prinzipien sind:
- Universalismus: Wissenschaftliche Ansprüche sollten anhand der Beweise beurteilt werden, nicht am persönlichen Hintergrund der Person, die den Anspruch erhebt.
- Kommunismus: Wissenschaftliche Erkenntnisse sollten offen geteilt und nicht geheim gehalten werden.
- Uninteressiertheit: Wissenschaftler sollten auf Integrität abzielen, ohne ihre persönlichen Interessen ihre Arbeit beeinflussen zu lassen.
- Organisierter Skeptizismus: Ansprüche sollten sorgfältig unter Verwendung akzeptierter wissenschaftlicher Standards geprüft werden.
Obwohl diese Prinzipien heute vielleicht nicht weit verbreitet bekannt sind, bilden sie die Grundlage dafür, wie wir wissenschaftliche Untersuchungen angehen, zum Beispiel durch Peer-Reviews und den Drang nach offener Wissenschaft.
Allerdings hat sich die Art und Weise, wie akademische Forschung in der KI geteilt wird, erheblich verändert. Das Volumen an Forschung in KI und maschinellem Lernen hat schnell zugenommen, was es für niemanden einfach macht, den Überblick zu behalten, was passiert. Soziale Medien spielen auch eine grosse Rolle dabei, wie Forschung entdeckt und zitiert wird.
Zudem haben die kommerziellen Interessen in der KI zugenommen, da Unternehmen im Wettlauf sind, fortschrittliche KI-Technologien zu entwickeln, um wettbewerbsfähig zu bleiben. Diese Eile kann dazu führen, dass übertrieben wird, was KI erreichen kann, besonders da die Gesellschaft schnell KI-Tools wie ChatGPT angenommen hat.
Schmale KI vs. AGI
In der Vergangenheit war KI hauptsächlich ein Werkzeug, um menschliche Denkprozesse zu verstehen. Jetzt gibt es einen Wandel, bei dem KI als etwas gesehen wird, das potenziell die menschliche Intelligenz vollständig ersetzen könnte. Das Konzept der AGI ist als ein grosses Ziel in der KI-Forschung aufgetaucht.
AGI ist nicht klar definiert, bezieht sich aber im Allgemeinen auf Maschinen, die eine Vielzahl von Aufgaben mit wenig menschlicher Aufsicht ausführen können. Um zu beweisen, dass AGI möglich ist, zeigen Forscher oft KI-Modelle, die in mehreren Aufgaben auf überraschende Weise zu glänzen scheinen.
Zum Beispiel schlug Google DeepMind einmal vor, dass ihr AlphaGeometry-Modell ein bedeutender Schritt in Richtung AGI sei, weil es komplexe Geometrieprobleme lösen konnte, ohne menschliche Beispiele zu benötigen. Solche Fähigkeiten wurden jedoch schon in den 1950er Jahren unter Verwendung logischen Denkens demonstriert, was bedeutet, dass DeepMind’s Modell, obwohl beeindruckend, nicht unbedingt darauf hindeutet, dass wir kurz vor AGI stehen.
Mit der Popularität von Tools wie ChatGPT ist es wichtig zu fragen, ob das Versprechen der KI darin liegt, intelligent wie Menschen zu werden oder anpassungsfähige Werkzeuge für verschiedene Aufgaben zu sein. Die Einsätze sind hoch, wie der schnelle kommerzielle Erfolg von ChatGPT zeigt.
Fehlinterpretation in der KI
Die Kombination aus hohen finanziellen Einsätzen und einer komplizierten Technologie, die menschliches Denken nachahmen soll, schafft ein perfektes Umfeld für Missverständnisse über die Fähigkeiten der KI. Mit dem Fortschritt der KI-Technologie wachsen die Herausforderungen bei der Interpretation ihres Verhaltens.
Verschiedene Forschungstrends zeigen den Druck auf Wissenschaftler, aufregende Ergebnisse zu veröffentlichen, was dazu führt, dass sie gewagte Behauptungen aufstellen, die möglicherweise nicht vollständig durch Beweise gestützt werden. Die Kultur rund um die KI-Forschung fördert grosse Aussagen über die Fähigkeiten der KI, die irreführend sein können.
Dieser Artikel baut auf diesen Bedenken auf, indem er aktuelle Studien diskutiert, die überraschende Ergebnisse über LLMs vorschlagen und aufzeigen, wie einfach es ist, übertriebene Aussagen über die Intelligenz von KI zu machen.
Infragestellung der Mustererkennung von KI
Eine virale Studie deutete darauf hin, dass LLMs weltweite Konzepte durch ihre Trainingsdaten verstehen könnten. Kritiker wiesen darauf hin, dass die Schlussfolgerungen aus der Studie Übertreibungen waren. Wir behaupten, dass es nicht überraschend ist, Muster in den KI-Ausgaben zu sehen, angesichts der Art, wie diese Modelle aufgebaut sind.
Zum Beispiel ist Llama-2 ein prominentes LLM, das auf einem riesigen Datensatz trainiert ist, der wahrscheinlich geografische Daten umfasst. Daher sollte es nicht überraschen, wenn es Verbindungen zwischen Wörtern und Orten basierend auf seinen Trainingsdaten herstellt.
Um dies zu veranschaulichen, simulierten wir ein einfaches Projekt, um zu zeigen, dass selbst untrainierte Modelle Mustererkennung demonstrieren können, ohne dass 'Intelligenz' oder tiefes Verständnis erforderlich ist.
Verständnis von Wirtschaftsdaten mit KI
Wir erkunden die Anwendung von KI in der Wirtschaft, speziell die Zinskurve, die zur Indikator für die wirtschaftliche Gesundheit verwendet wird. Durch die Analyse historischer Zinskurvendaten können wir Einblicke in wirtschaftliche Trends gewinnen. Ökonomen nutzen Techniken wie die Hauptkomponentenanalyse (PCA), um nützliche Informationen aus diesen Daten zu extrahieren.
Wir haben tägliche Zinsdaten von US-Staatsanleihen gesammelt, um zu verstehen, wie die Zinskurve die wirtschaftliche Aktivität beeinflusst. Indem sie Faktoren wie die Steilheit der Kurve untersuchen, können Forscher wirtschaftliche Verschiebungen im Laufe der Zeit besser vorhersagen.
In der Praxis können verschiedene Modelle hinsichtlich ihrer Effektivität bei Vorhersagen auf der Grundlage dieser Wirtschaftsindikatoren verglichen werden. Die Verwendung historischer Daten, um zukünftige Ergebnisse vorherzusagen, kann ein interessanter Weg sein, das Potenzial von KI in der Wirtschaft zu erkunden.
Untersuchung wirtschaftlicher Stimmungen mit KI
Um die Rolle der KI in der Wirtschaft weiter zu demonstrieren, haben wir untersucht, wie LLMs dabei helfen könnten, wirtschaftliche Stimmungen vorherzusagen. Zum Beispiel können Sprachmodelle trainiert werden, um die Kommunikation der Zentralbanken zu analysieren und ihren Ton als entweder vorsichtig oder aggressiv in Bezug auf die Geldpolitik zu klassifizieren.
Während wir unsere KI-Modelle für diese Aufgabe optimieren, stellen wir fest, dass selbst kleinere Modelle nützliche Informationen erfassen können, obwohl sie nicht explizit dafür trainiert wurden.
Wir glauben jedoch nicht, dass dies bedeutet, dass diese Modelle ein echtes Verständnis wirtschaftlicher Prinzipien haben. Vielmehr verstärkt es die Vorstellung, dass LLMs oft als sehr ausgeklügelte Nachahmer fungieren, anstatt echte Lerner zu sein.
Das Risiko der Überinterpretation
Menschen neigen von Natur aus dazu, Muster zu identifizieren, was vorteilhaft, aber auch irreführend sein kann. Diese Tendenz kann uns dazu führen, den KI-Ausgaben eine grössere Bedeutung zuzuschreiben, als es angebracht ist, insbesondere wenn es darum geht, ihre Fähigkeiten zu interpretieren.
Die Gefahren, anzunehmen, dass KI-Systeme die Welt wie Menschen verstehen, können zu erheblichen Missverständnissen führen. Da KI-Ausgaben möglicherweise tiefere Bedeutungen zu haben scheinen, ist es wichtig zu hinterfragen, ob sie tatsächlich echtes Verständnis darstellen oder lediglich Muster aus ihren Trainingsdaten widerspiegeln.
Der Einfluss des Bestätigungs-Bias
Bestätigungs-Bias kann auch unsere Interpretation von Ergebnissen in der KI-Forschung trüben. Dieser Bias tritt auf, wenn Forscher Informationen bevorzugen, die ihren bestehenden Überzeugungen entsprechen, während widersprüchliche Beweise oft vernachlässigt werden.
Im Bereich der KI, wo Ansprüche über Verbesserungen üblich sind, sind Forscher möglicherweise weniger geneigt, ihre Annahmen in Frage zu stellen. Dies kann zu einem Zyklus führen, in dem KI-Systeme als fähig wahrgenommen werden, Fähigkeiten zu besitzen, die sie tatsächlich nicht haben, basierend auf voreingenommenen Interpretationen der Leistung.
Um dieses Problem zu bekämpfen, schlagen wir vor, dass Forscher Hypothesen klar artikulieren und KI-Behauptungen rigoros untersuchen, anstatt lediglich Beweise zu sammeln, die sie unterstützen. Eine Haltung des organisierten Skeptizismus wird die Integrität der KI-Forschung verbessern.
Fazit
Während die Aufregung über KI weiter wächst, ist es wichtig, kritisch gegenüber den Ansprüchen über ihre Fähigkeiten zu bleiben. Der Druck, bahnbrechende Ergebnisse zu produzieren, kann zu hyperbolischen Aussagen über KI-Systeme führen. Forscher müssen sich an etablierte wissenschaftliche Prinzipien halten, um sicherzustellen, dass die Interpretation von KI-Ergebnissen ehrlich und genau ist.
Dieser Artikel hebt die Gefahren der Fehlinterpretation von KI-Ausgaben hervor, insbesondere bei der Suche nach AGI. Wir betonen die Notwendigkeit eines vorsichtigeren und verantwortungsvolleren Ansatzes, wie KI-Fortschritte sowohl in akademischen Kreisen als auch in der Öffentlichkeit kommuniziert werden.
Indem wir die mertonianischen Normen im Hinterkopf behalten, können wir die Integrität der KI-Forschung aufrechterhalten und ein klareres Verständnis dafür fördern, was KI-Systeme können und was nicht.
Titel: Position: Stop Making Unscientific AGI Performance Claims
Zusammenfassung: Developments in the field of Artificial Intelligence (AI), and particularly large language models (LLMs), have created a 'perfect storm' for observing 'sparks' of Artificial General Intelligence (AGI) that are spurious. Like simpler models, LLMs distill meaningful representations in their latent embeddings that have been shown to correlate with external variables. Nonetheless, the correlation of such representations has often been linked to human-like intelligence in the latter but not the former. We probe models of varying complexity including random projections, matrix decompositions, deep autoencoders and transformers: all of them successfully distill information that can be used to predict latent or external variables and yet none of them have previously been linked to AGI. We argue and empirically demonstrate that the finding of meaningful patterns in latent spaces of models cannot be seen as evidence in favor of AGI. Additionally, we review literature from the social sciences that shows that humans are prone to seek such patterns and anthropomorphize. We conclude that both the methodological setup and common public image of AI are ideal for the misinterpretation that correlations between model representations and some variables of interest are 'caused' by the model's understanding of underlying 'ground truth' relationships. We, therefore, call for the academic community to exercise extra caution, and to be keenly aware of principles of academic integrity, in interpreting and communicating about AI research outcomes.
Autoren: Patrick Altmeyer, Andrew M. Demetriou, Antony Bartlett, Cynthia C. S. Liem
Letzte Aktualisierung: 2024-05-31 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2402.03962
Quell-PDF: https://arxiv.org/pdf/2402.03962
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://www.bloomberg.com/news/articles/2023-08-30/openai-nears-1-billion-of-annual-sales-as-chatgpt-takes-off
- https://www.scientificamerican.com/article/google-engineer-claims-ai-chatbot-is-sentient-why-that-matters/
- https://twitter.com/wesg52/status/1709551516577902782?s=20
- https://github.com/wesg52/world-models/blob/main/data/entity_datasets/world_place.csv
- https://www.fifa.com/fifa-world-ranking/men?dateId=id14142
- https://anonymous.4open.science/r/TrillionDollarWords/README.md
- https://www.tylervigen.com/spurious-correlations
- https://ourworldindata.org/grapher/annual-scholarly-publications-on-artificial-intelligence?time=2010..2021
- https://www.scopus.com/
- https://openai.com/research/gpt-4
- https://fred.stlouisfed.org/series/GDPC1
- https://anonymous.4open.science/r/spurious_sentience/README.md