Клубове Дир.бг
powered by diri.bg
търси в Клубове diri.bg Разширено търсене

Вход
Име
Парола

Клубове
Dir.bg
Взаимопомощ
Горещи теми
Компютри и Интернет
Контакти
Култура и изкуство
Мнения
Наука
Политика, Свят
Спорт
Техника
Градове
Религия и мистика
Фен клубове
Хоби, Развлечения
Общества
Я, архивите са живи
Клубове Дирене Регистрация Кой е тук Въпроси Списък Купувам / Продавам 22:07 30.10.25 
Клубове / Общества / Непрофесионални / Вегетарианство Всички теми Следваща тема Пълен преглед*
Информация за клуба
Тема Physik-Nobelpreis:Wieviel Physik in neuronalen Net [re: Mod vege]
Автор Mod vegeМодератор (старо куче)
Публикувано08.11.24 14:23  





Ohne neuronale Netze wären Sprach- und Bildgeneratoren wie ChatGPT nicht möglich. Der Zusammenhang zur Physik erschließt sich erst auf den zweiten Blick.

[image]https://heise.cloudimg.io/width/610/q70.png-lossy-70.webp-lossy-70.foil1/_www-heise-de_/imgs/18/4/6/9/9/9/9/5/ct2624nobelprei_131118_spa_uwei_online-0b1208c339bd8e6f.jpeg[/image]

05.11.2024, 13:30 Uhr, Von Dr.

"Und der Nobelpreis für Physik 2024 geht nicht an Physik", schrieb die Physikerin und Wissenschaftskommunikatorin Sabine Hossenfelder nur wenige Minuten nach der Bekanntgabe des Preises auf X. Damit bringt sie die Kontroverse um die in diesem Jahr geehrte Forschung auf den Punkt. Denn ausgezeichnet wurden John Hopfield von der Princeton University und Geoffrey Hinton von der University of Toronto für "bahnbrechende Entdeckungen und Erfindungen, die maschinelles Lernen mit künstlichen neuronalen Netzen ermöglichen". Der Bezug zur Physik wird aus der Verlautbarung der Königlich Schwedischen Akademie der Wissenschaften nicht direkt deutlich.

In der Physik-Community machte sich Ernüchterung breit, für die sozialen Medien war es hingegen ein gefundenes Fressen. "Nun lernen Physiker, wie es sich anfühlt, wenn KI ihre Arbeit übernimmt ... ", schrieb der Kosmologe Brian Keating auf X. "Was, wenn KI sich bereits unserer Kontrolle entzieht und lediglich testet, ob sie sich selbst den Nobelpreis für Physik verleihen kann?", witzelte ein anderer Nutzer. "Physiker, die sich darüber beschweren, dass der Nobelpreis an die Informatik ging, haben es nicht verstanden", schrieb die IBM-Physikerin Olivia Lanes, "jetzt, wo die Physik maschinelles Lernen für sich beansprucht hat – stellt euch vor, wofür wir noch alles den Ruhm ernten könnten!"

Doch beide Preisträger haben in ihrer Arbeit Methoden verwendet, die aus der theoretischen Physik stammen. John Hopfield (91) ist promovierter Physiker; Geoffrey Hinton (76) war mit den Methoden der statistischen Physik vertraut. Wie viel Physik tatsächlich im maschinellen Lernen steckt und welchen Beitrag die Laureaten zur Entwicklung künstlicher Intelligenz geleistet haben, soll dieser Artikel genauer beleuchten.


Vertreter des Nobelkomitees gaben am 8. Oktober den Nobelpreis für Physik bekannt. In diesem Jahr ging die Auszeichnung an die KI-Forscher John Hopfield und Geoffrey Hinton.

Von natürlichen zu künstlichen Neuronen

Auch wenn sich der Begriff "künstliche Intelligenz" in der Umgangssprache verbreitet hat, so ist es in den meisten Fällen doch akkurater, von maschinellem Lernen zu sprechen. Maschinelles Lernen unterscheidet sich grundlegend von klassisch programmierter Software. Letztere arbeitet deterministisch: Sie verarbeitet eingegebene Informationen entsprechend eines vorgegebenen Rezeptes Schritt für Schritt und gibt schließlich ein Ergebnis aus. Beim maschinellen Lernen hingegen lernt ein Computer anhand von Beispielen. So kann er auch Probleme lösen, die zu vage oder kompliziert für ein einfaches Rezept sind. Nach ausführlichem Training ist ein maschineller Lernalgorithmus etwa in der Lage, auf einem Foto eine Katze zu erkennen, obwohl er nie Definitionen wie Schnurrhaare, Fell oder Pfoten einprogrammiert bekommen hat.

Trotz der Vermenschlichung solcher Systeme mit Begriffen wie lernen, trainieren oder denken basieren Maschinen lediglich auf mathematischen Modellen. Um menschliche Fähigkeiten zu imitieren, ließen sich Forscher von der Hirnforschung inspirieren. Das Gehirn besteht aus Nervengewebe, das wiederum aus Nervenzellen besteht, den sogenannten Neuronen. Über Synapsen sind die Neuronen miteinander verknüpft und können so Signale austauschen. Gemeinsam bilden sie ein neuronales Netz: Nicht etwa ein einzelnes Neuron verarbeitet eine Information, sondern das gesamte Netzwerk beziehungsweise Bereiche davon. Künstliche neuronale Netze sollen dieses Prinzip imitieren. Sie bestehen aus Knotenpunkten, den künstlichen Neuronen. Die Verbindungen zwischen ihnen, die "Synapsen", sind gewichtet – manche Neuronen koppeln stärker aneinander als andere.


Das Netzwerk des Gehirns besteht aus Neuronen, die über Synapsen verknüpft sind (links). Künstliche neuronale Netze bestehen aus Knoten, denen ein Wert zugeordnet ist (rechts). In beiden Fällen werden beim Lernen manche Verbindungen stärker und andere schwächer.

Die begann jedoch nicht mit den Durchbrüchen der Nobelpreisträger in den 1980er-Jahren, sondern bereits vierzig Jahre zuvor. In den 40er-Jahren etablierten sich die ersten elektronischen Computer, vor allem im militärischen und wissenschaftlichen Bereich, um aufwendige und mühselige Berechnungen durchzuführen. Zur gleichen Zeit befassten sich Forschende mit der Frage, wie das Gehirn Informationen verarbeitet. 1943 modellierten der Neurowissenschaftler Warren McCulloch und der Logiker Walter Pitts, wie Neuronen im Gehirn zusammenarbeiten: Ein Neuron berechne die gewichtete Summe eingehender Signale von anderen Neuronen, um ein ausgehendes Signal zu berechnen. Wenig später bemerkten sie, dass ein künstliches neuronales Netz zum Beispiel zur räumlichen Mustererkennung eingesetzt werden könne. Sechs Jahre später schlug der Psychologe Donald Hebb einen Mechanismus vor, wie das Gehirn lernt und Erinnerungen verarbeitet: Werden zwei Neuronen gleichzeitig und wiederholt aktiviert, verstärkt sich die Synapse, die die zwei verbindet. Diese sogenannte Hebbsche Lernregel beschreibt das grundsätzliche Lernverfahren der meisten künstlichen Netzwerke.

In den 50er- und frühen 60er-Jahren entwickelten unterschiedliche Forschungsteams die ersten rudimentären Computer auf Basis neuronaler Netze und setzten sie zur Mustererkennung ein. 1957 präsentierten Frank Rosenblatt und Charles Wightman zum Beispiel den ersten Neurocomputer, der einfache Ziffern erkennen konnte. Marvin Minsky und Seymour Papert zeigten 1969 jedoch, dass dieses System schnell an seine Grenzen geraten würde: Nichtlineare Probleme, wie etwa die XOR-Operation (exklusives Oder: entweder A oder B, aber nicht beides), könne die Rosenblatt-Maschine nicht lösen. Es machte sich die Sorge breit, dass künstliche neuronale Netze niemals wirklich nützlich sein könnten. Dies löste den ersten KI-Winter aus: eine Phase, in der die Forschungsförderung für künstliche neuronale Netze nahezu zum Stillstand kam.

Das Hopfield-Netzwerk

1982 stellte Nobelpreisträger John Hopfield den Mechanismus für ein neuronales Netz vor. Damit gab er den Startschuss für ein erneutes breites Interesse an der KI-Forschung. Dafür nutzte er Methoden der Physik. "Ich sehe die Welt immer durch die Brille der Physik. Ich bin mit Physik aufgewachsen und die Art, wie ich Probleme aufgreife, ist sehr charakteristisch für die Physik", sagte Hopfield . Die Grundidee des Hopfield-Netzwerks: Wenn Neuronen zusammenwirken, zeigen sie Eigenschaften, die man den einzelnen Neuronen nicht ansieht. Genauso verhält es sich mit Vielteilchensystemen in der Physik. Ein einzelnes Atom verrät nichts über die magnetischen Eigenschaften eines Werkstoffs. Diese ergeben sich erst aus den kollektiven Eigenschaften der unzähligen Atome im Material.
__
Zur Person: John Hopfield​
Der US-amerikanische Physiker, Molekularbiologe und Neurowissenschaftler John Joseph Hopfield wurde 1933 in Chicago geboren. Er promovierte 1958 im Bereich der theoretischen Festkörperphysik an der Cornell University. In den folgenden zwei Jahren arbeitete er in den Bell Laboratories, bevor er 1961 als Physikprofessor an die University of California in Berkeley wechselte.

Während seiner Zeit an der Princeton University von 1964 bis 1980 wandte er sich der Biochemie zu und erforschte theoretische Probleme der Molekularbiologie. Seine preisgekrönte Arbeit zum Hopfield-Netzwerk veröffentlichte der Forscher 1982 während seiner Zeit als Professor für Chemie und Biologie am California Institute of Technology (Caltech). Dort standen ihm erstmals ausreichende Mengen an Rechenleistung zur Verfügung, um seiner Forschung zu neuronalen Netzen nachzugehen.

1997 kehrte Hopfield als Professor für Molekularbiologie nach Princeton zurück, wo er bis zu seiner Emeritierung blieb. Er erhielt während seiner Karriere diverse Auszeichnungen, darunter die Dirac-Medaille (2001), den Albert Einstein World Award of Science (2005) und die Boltzmann-Medaille (2022).
__
Verantwortlich für den Magnetismus eines Körpers ist der Spin der Elektronen in der Atomhüllle. Der Spin ist eine quantenmechanische Eigenschaft, die man sich vereinfacht als Drehung der Elektronen um die eigene Achse vorstellen kann. Aufgrund des Spins verhalten sich Elektronen wie winzige Magnete, die in verschiedene Richtungen zeigen können. Doch erst aus der Ausrichtung all dieser Elementarmagnete und ihrer Wechselwirkung untereinander lässt sich schlussfolgern, ob das Material im Ganzen magnetisch ist oder nicht.

Hopfield betrachtete ein Netz aus mehreren Spins, die in entgegengesetzte Richtungen zeigen können, dargestellt durch die Werte +1 oder -1. Welche Ausrichtung ein einzelner Spin hat, hängt von den anderen Spins in seiner Umgebung ab. In einem Ferromagneten, wie etwa Eisen, wollen die Spins alle in die gleiche Richtung zeigen. In Anti-Ferromagneten, die zum Beispiel in Leseköpfen magnetischer Festplatten vorkommen, wechseln sich die Spins ab. Mischformen bezeichnen Physiker als Spingläser. Die Energie des kollektiven Spinsystems ergibt sich aus der Summe der Spinwerte (s) und ihrer Kopplungen (J),

E
=
-
1
2
∑
i
,
j
J
i
j
s
i
s
j
wobei die i’s und j’s die Spins durchnummerieren. Dies ist das sogenannte Ising-Modell magnetischer Materialien.

Hopfield nutzte dieses Wissen, um ein künstliches neuronales Netz zu beschreiben, das nach ihm benannte Hopfield-Netzwerk. Die Spins des Ising-Modells entsprechen dabei gekoppelten Neuronen, die ebenfalls die Werte +1 und -1 annehmen können. Die Energie des künstlichen, neuronalen Netzes lautet dann

E
=
-
1
2
∑
i
,
j
w
i
j
s
i
s
j
wobei wij das Gewicht der Verbindung (Synapse) zwischen den Neuronen i und j ist. Diese Formel entspricht eins zu eins der Energieformel des Ising-Modells.

Wie sich Netzwerke erinnern

In der Physik ist die Energie eine grundlegende Größe. In einem künstlichen neuronalen Netz ist sie hingegen eher abstrakt, aber essenziell, um zu verstehen, wie ein Hopfield-Netzwerk funktioniert. Während des Trainings wird das Netzwerk mit Daten gefüttert. Ein Beispiel ist ein schwarz-weißes Pixelbild des Buchstabens J. Jedes Neuron des Netzwerks entspricht dann einem Bildpunkt und es kann die Werte +1 (schwarz) oder -1 (weiß) annehmen. Die Hebbsche Lernregel gibt dann die Stärke der Verbindung vor ("Neuronen, die gemeinsam feuern, koppeln stark."). Üblicherweise speichert ein Netzwerk jedoch nicht nur ein Muster, sondern viele gleichzeitig, zum Beispiel das gesamte Alphabet. Die Gewichte werden dann so gewählt, dass die Energie so klein wie möglich ist, wenn die Neuronen ein gespeichertes Muster abbilden. Die Energieverteilung kann man sich als hügelige Landschaft vorstellen: Stellen die Neuronen eines der gespeicherten Muster dar, ist die Energie minimal und wir befinden uns in einem Tal der Landschaft. Bilden die Neuronen ein anderes Muster ab, ist die Energie höher; wir stehen auf einem Hügel.


Der Assoziativspeicher von John Hopfield speichert Informationen in einer hügeligen Landschaft. Wird das Netzwerk trainiert, formt es in der virtuellen Energielandschaft für jedes gespeicherte Muster ein Tal. Bei Eingabe eines verzerrten Musters gibt das Netzwerk das nächstliegende gespeicherte Muster zurück.

So kann das Netzwerk auch anhand unvollständiger oder verzerrter Informationen das gespeicherte Muster identifizieren, das der Eingabe am meisten ähnelt. Die neue Information kann man sich wie einen Ball vorstellen, der in die hügelige Energielandschaft gesetzt wird. Die Werte der Neuronen werden anschließend neu berechnet, dabei rollt der Ball zum tiefsten Punkt der Landschaft. Dieser entspricht dem gespeicherten Muster, das der verzerrten Information am meisten ähnelt. Das verrauschte Bild wurde wiederhergestellt.

Das Hopfield-Netzwerk wird auch als Assoziativspeicher bezeichnet. Dies geht auf das assoziative Gedächtnis zurück, das augenscheinlich unabhängige Inhalte miteinander verknüpft, wie etwa das Gesicht und den Namen einer Person. Wenn Menschen versuchen, sich an eine Sache zu erinnern, durchforsten sie ihr Gedächtnis nach Informationen, die im Geiste miteinander verknüpft sind. Nach dem gleichen Prinzip findet das Hopfield-Netzwerk das gespeicherte Muster, das der eingegebenen Information am meisten ähnelt.

Später hat Hopfield sein Netzwerk verallgemeinert, statt binären Neuronen (+1 und -1) erlaubte er beliebige Werte, um so zum Beispiel den Helligkeitswert eines Bildpixels zu repräsentieren. Außerdem nutzte er das Netzwerk auch zum Lösen komplizierter Optimierungsprobleme. Moderne Quantenannealer – Alternativen zum Quantencomputer – stützen sich zum Beispiel auf ein sehr ähnliches Prinzip.

Die Boltzmann-Maschine

Der zweite Nobelpreisträger, Geoffrey Hinton, wollte Informationen hingegen nicht nur speichern, sondern sie auch interpretieren oder völlig neue Muster erzeugen. Gemeinsam mit dem Neurowissenschaftler Terrence Sejnowski – der unter John Hopfield in Princeton promoviert hat – nutzte Hinton 1985 Methoden aus der statistischen Physik, um dieses Problem zu lösen. Dafür erweiterte er das Hopfield-Netzwerk und machte es dadurch mächtiger, jedoch auch komplizierter.
__
Zur Person: Geoffrey Hinton​
[image]https://heise.cloudimg.io/v7/_www-heise-de_/imgs/18/4/6/9/9/9/9/5/bekanntgabe_nobelpre_83720826-7151e40a139ecfae.jpg?force_format=avif%2Cwebp%2Cjpeg[/image]
Geoffrey Everest Hinton ist Informatiker und Kognitionspsychologe und wurde 1947 im Londoner Stadtteil Wimbledon geboren. Er ist ein Ururenkel des englischen Logikers George Boole, Begründer der Booleschen Algebra. Hinton besuchte die University of Cambridge und wechselte sein Fachgebiet mehrfach, von Naturwissenschaften über Kunstgeschichte zu Philosophie, bevor er 1970 einen Bachelor in Experimentalpsychologie erhielt. Anschließend promovierte er 1978 an der University of Edinburgh im Bereich der künstlichen Intelligenz.

Zunächst forschte Hinton an der University of Sussex in England, der University of California in San Diego und der Carnegie Mellon University in Pittsburgh, beide USA. 1986, während seiner Zeit als Postdoc in San Diego, veröffentlichte er sein einflussreiches Forschungspapier zur Backpropagation (Fehlerrückführung) beim Training neuronaler Netze. Ein Jahr später wurde er Professor für Computer Science an der kanadischen University of Toronto. Dort ist er seit 2014 emeritierter Professor.

Für seine KI-Forschung erhielt er diverse Auszeichnungen, darunter den Turing-Award (2018, gemeinsam mit Yoshua Bengio und Yann LeCun), die höchste Auszeichnung in der Informatik. Er trägt den Spitznamen "Godfather of AI", wortwörtlich "Pate der KI". Zwischen 2013 und 2023 arbeitete Hinton außerdem für Googles damalige Deep-Learning-Abteilung Google Brain. 2023 verließ er Google jedoch aufgrund seiner Bedenken zur KI-Forschung.
__
Kurz nach der Bekanntgabe des Nobelpreises frage ein Journalist der New York Times Hinton, ob er seine Forschung in einfachen Worten erklären könne. Dieser erwiderte: "Ich erinnere mich an die Worte des Physikers Richard Feynman, als er den Nobelpreis erhielt. Ein Journalist fragte ihn: ‚Professor Feynman, können Sie in ein paar Minuten erklären, wofür Sie den Nobelpreis erhalten haben?‘ Feynman soll geantwortet haben: ‚Hören Sie, Kumpel, wenn ich es in ein paar Minuten erklären könnte, wäre es keinen Nobelpreis wert.‘" Wir versuchen es trotzdem.

Die statistische Physik befasst sich mit großen Systemen, die aus sehr vielen, gleichartigen Teilchen zusammengesetzt sind, etwa Gase oder Flüssigkeiten. Es ist zwar unmöglich, alle Teilchen in einem Gas einzeln zu betrachten, dafür lässt sich das Gas aber als Ganzes beschreiben. Die Eigenschaften der einzelnen Teilchen, also zum Beispiel die Positionen und Geschwindigkeiten aller Atome in einem Gas, beschreibt der sogenannte Mikrozustand. Der Makrozustand hingegen beschreibt die über alle Teilchen gemittelten Eigenschaften, also zum Beispiel die Temperatur oder den Druck des Gases. In der Regel können mehrere Mikrozustände im gleichen Makrozustand resultieren: Es gibt viele verschiedene Möglichkeiten, die Atome einer Gasflasche anzuordnen und trotzdem 36° Celsius und 1 Bar zu messen.

Wenn sich der Makrozustand des Systems nicht ändert, befindet es sich im sogenannten thermischen Gleichgewicht. Trotzdem sind verschiedene Mikrozustände mit unterschiedlicher Energie möglich. Wie wahrscheinlich eine bestimmte Energie ist, lässt sich mithilfe der Boltzmann-Verteilung berechnen,

p
=
1
Z
e
-
E
/
k
B
T
.
Die Wahrscheinlichkeit (p) nimmt exponentiell (erkennbar an der Eulerschen Zahl e) mit der Energie (E) ab und hängt von der Temperatur (T) und einer Naturkonstante (kB, die sogenannte Boltzmann-Konstante) ab. Der Faktor Z garantiert, dass sich alle Wahrscheinlichkeiten zu 1 aufsummieren. Benannt wurde sie nach dem österreichischen Physiker Ludwig Boltzmann. Hinton nutzte diese Gleichung, um ein künstliches neuronales Netzwerk zu beschreiben. Während Hopfield die Werte der Neuronen in seinem Netzwerk deterministisch, also anhand einer fixen Regel, aktualisierte, arbeitet die Boltzmann-Maschine probabilistisch: Die Boltzmann-Verteilung legt fest, wie wahrscheinlich verschiedene Werte eines Neurons sind. Eine Zufallszahl bestimmt, welchen Wert das Neuron tatsächlich annimmt.

Hinton trainierte die Boltzmann-Maschine mit unverfälschten sowie verrauschten Daten, damit sie erwünschte von unerwünschten Mustern unterscheiden kann. Um dies zu erreichen, bestimmt ein Algorithmus die Werte der Neuronen und Verbindungen Schritt für Schritt. Zudem besitzt die Boltzmann-Maschine außer sichtbaren Neuronen, die die Eingabe und Ausgabe kodieren, auch versteckte Neuronen. Diese können abstrakte Eigenschaften und Korrelationen in den Daten speichern und verarbeiten, zum Beispiel Details, die dabei helfen, ein I von einem J zu unterscheiden. Damit ist das Netzwerk auch in der Lage, neue Muster zu erzeugen, die zu den Trainingsdaten passen. Die Boltzmann-Maschine war damit eines der ersten generativen Modelle.

Später stellte sich heraus, dass die Boltzmann-Maschine sehr ineffizient arbeitet, weil ein Algorithmus die Werte aller Neuronen nacheinander aktualisieren muss. Schließlich setzte sich mit der beschränkten Boltzmann-Maschine eine Variante durch, bei der sichtbare nur mit versteckten Neuronen verbunden sind – zwischen Neuronen einer Schicht besteht hingegen keine Verbindung. Obwohl diese Variante weniger Freiheiten bietet, arbeitet sie in der Praxis effizienter, da alle Neuronen einer Ebene gleichzeitig aktualisiert werden können.


Im Hopfield-Netzwerk (links) sind alle Knoten miteinander verbunden. Alle Knoten dienen zur Speicherung und Ausgabe der Daten, sind also sichtbar. Die Boltzmann-Maschine (Mitte) besteht aus sichtbaren Knoten (blau), die Informationen speichern und ausgeben, und versteckte Knoten (weiß), die zusätzliche Rechnungen ausführen. In der beschränkten Boltzmann-Maschine (rechts) besteht keine Verbindung zwischen Knoten einer Ebene.

Fehlerrückführung
Wichtiger als die Boltzmann-Maschine sei für heutige KI-Modelle aber eine andere Technik, sagte Hinton der New York Times: die Backpropagation. "Das hat weniger mit Physik zu tun." Sowohl die Boltzmann-Maschine als auch die Backpropagation hätten allerdings geholfen, neuronale Netze zum Laufen zu bekommen. Die Idee der Backpropagation, oder Fehlerrückführung, ist die folgende: Das neuronale Netz erhält ein Eingabemuster und reicht es zu den Ausgabeneuronen durch. Es vergleicht die tatsächliche Ausgabe mit der gewünschten und betrachtet die Abweichung als Fehler. Anschließend reicht es den Fehler von den Ausgabeneuronen zurück an die Eingabeneuronen. Dabei passt es die Gewichte der Neuronenverbindungen so an, dass sich der Fehler verkleinert. In der nächsten Wiederholung ähnelt das Ausgabemuster dem gewünschten Muster stärker. Dieser Prozess wird so lange wiederholt, bis das Netzwerk die gewünschte Genauigkeit liefert – es ist trainiert.

Die Methode geht auf diverse Forscher der 1960er-Jahre zurück. Hinton zeigte jedoch 1986 erstmals gemeinsam mit David Rumelhart und Ronald Williams den Nutzen dieser Methode für tiefe neuronale Netze. Heutzutage gebe es laut Hinton keine große Verbindung mehr zwischen Boltzmann-Maschinen und der Backpropagation. "In den Anfängen gelang es mir, sie zu kombinieren, indem ich Boltzmann-Maschinen zum Vortraining von Backpropagation-Netzen verwendete. Aber das macht man heute nicht mehr."

Wie so häufig kam auch in diesem Jahr die Frage auf, ob die richtigen Personen den Nobelpreis erhalten hätten. Forschung ist eine Gemeinschaftsleistung und lediglich zwei oder drei Personen für ein Forschungsgebiet auszuzeichnen, ist schwierig. "Hopfield und Hinton haben den Nobelpreis aus meiner Sicht absolut verdient", meint Ute Schmid, Leiterin des Lehrstuhls für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg. "Beide haben wesentliche methodische Grundlagen für das maschinelle Lernen mit neuronalen Netzen geschaffen." Doch auch ihr fallen viele weitere Namen ein, die das Forschungsgebiet geprägt haben, darunter Hintons Kollege David Rumelhart, der maßgeblich an der Einführung der Backpropagation beteiligt gewesen war.

Preisträger beunruhigt von Entwicklung von KI
Auf die konzeptionellen Durchbrüche in den 80er-Jahren folgten die ersten erfolgreichen Anwendungen künstlicher neuronaler Netze, etwa zur automatischen Erkennung von Unterschriften bei Banken oder zur Analyse klinischer Daten. Mit der Veröffentlichung von ChatGPT 2022 setzte schließlich der Boom generativer künstlicher Intelligenz ein. Die Größe der Netzwerke ist in dieser Zeit explodiert. Hopfields Netzwerk von 1982 nutzte 30 Neuronen mit 435 Verbindungen und somit etwas weniger als 500 Parametern. Bereits ein Netzwerk mit 100 Neuronen überstieg die Rechenkapazitäten, die er damals zur Verfügung hatte. Vereinzelte große Sprachmodelle verwenden heute mehr als eine Billion Parameter.

Künstliche Intelligenz werde einen riesigen Einfluss auf die Menschheit haben, sagte Hinton im Anschluss an die Verkündung des Nobelpreises im Telefonat mit der Königlich Schwedischen Akademie der Wissenschaften. "Sie wird mit der industriellen Revolution vergleichbar sein, aber anstatt die Menschen an körperlicher Stärke zu übertreffen, wird sie die Menschen an intellektuellen Fähigkeiten übertreffen." Gleichzeitig warnt er vor dem Einsatz von KI. "Wir haben keine Erfahrung damit, wie es ist, wenn Dinge intelligenter sind als wir", sagte er weiter. Es könne zu einem effizienteren Gesundheitswesen und gesteigerter Produktivität führen. "Wir müssen uns aber auch über eine Reihe möglicher negativer Folgen Sorgen machen. Besonders über die Gefahr, dass diese Dinge außer Kontrolle geraten."

Im vergangenen Jahr kündigte Hinton seine Stelle bei Google Brain, um frei über die Risiken von KI sprechen zu können. Im Mai 2024 äußerte er etwa im Wissenschaftsmagazin Science gemeinsam mit anderen Experten unter dem Titel "Umgang mit extremen KI-Risiken inmitten des rasanten Fortschritts" seine Bedenken. Sie schreiben dort: "Ohne ausreichende Vorsicht könnten wir unwiderruflich die Kontrolle über autonome KI-Systeme verlieren, so dass ein menschliches Eingreifen wirkungslos wird. Dieser unkontrollierte KI-Fortschritt könnte (…) zur Auslöschung der Menschheit führen."

Auch Hopfield zeigte sich kritisch. Vergangenes Jahr unterzeichnete er einen offenen Brief mit der Forderung, das Training von KIs zu pausieren, die leistungsfähiger sind als GPT-4. Kurz nach der Bekanntgabe des Preises sagte er während einer Pressekonferenz der Princeton University: "Als Physiker bin ich sehr beunruhigt von etwas, das niemand kontrolliert, etwas, das ich nicht gut genug verstehe, um zu sehen, wo die Grenzen liegen, an die man diese Technologie treiben könnte." Er plädierte daher dafür, dass das Forschungsfeld ein besseres Verständnis der KI anstreben müsse.

Der Physik zum Nutzen
Während KI in der öffentlichen Wahrnehmung erst seit einigen Jahren Aufmerksamkeit erregt, verwenden Forscher das maschinelle Lernen seit bereits 15 bis 20 Jahren. Insbesondere fußen künstliche neuronale Netze nicht nur auf Methoden der Physik, sondern maschinelles Lernen leistete auch einen erheblichen Beitrag zur modernen physikalischen Forschung. "Viele Erkenntnisse in der Physik sind nur durch maschinelles Lernen zu gewinnen", sagt Katharina Morik, Gründungsdirektorin des Lamarr-Instituts für Maschinelles Lernen und KI in Nordrhein-Westfalen. Dazu gehört etwa das IceCube-Projekt, an dem Morik beteiligt war. Mithilfe eines Detektors am Südpol und der KI-gestützten Auswertung der darüber gesammelten Daten konnte das Team die Milchstraße anhand von Neutrinos abbildeten.


Das IceCube-Observatorium am Südpol detektiert Neutrinos, die aus der Milchstraße kommen und die Erde erreichen.

In den 90er-Jahren wurden künstliche neuronale Netze zu einem Standard-Analysewerkzeug in der Teilchenphysik. Teilchenbeschleuniger wie etwa der Large Hadron Collider (LHC) am CERN produzieren Unmengen an Daten – im Schnitt verarbeitet das CERN-Datenzentrum ein Petabyte pro Tag. Grund dafür ist, dass die dort gesuchten Elementarteilchen oft nur für Bruchteile einer Sekunde kurz nach einer energiereichen Kollision existieren. Um diese trotzdem aufzuspüren, müssen Forscher gigantische Datenmengen aufzeichnen und nach den richtigen Spuren durchsuchen. So gelang es dem Forschungsteam 2012, das Higgs-Boson nachzuweisen, für das Peter Higgs und François Englert im folgenden Jahr mit dem Nobelpreis für Physik ausgezeichnet wurden.


Mit dem CMS-Detektor am LHC messen Forscher Spuren des Zerfalls von Teilchen, wie diese von 2011. Sie haben zur Entdeckung des Higgs-Bosons geführt.

Dass der Nobelpreis in diesem Jahr an ein informatisches Thema ging, hält Schmid für gerechtfertigt. Einen Nobelpreis für Informatik gebe es nun einmal nicht. "Ein Nobelpreis symbolisiert deutlicher, dass eine Forschungsarbeit nicht nur von hoher fachlicher Relevanz ist, sondern auch darüber hinaus Bedeutung für Wissenschaft und Gesellschaft hat."

(spa)



Цялата тема
ТемаАвторПубликувано
* Разни статии Mod vegeМодератор   18.10.21 05:58
. * Нар / Pomegranate Benefits Mod vege   18.10.21 06:01
. * Resistant Starch Mod vege   18.10.21 06:06
. * How to Make Your Own CoQ10 Mod vege   21.10.21 08:17
. * Peter Diamandis on how to live a longer life Mod vege   07.01.22 23:53
. * What & When to Eat for Longevity - David Sinclair Mod vege   28.01.22 06:16
. * Повишаване азотния оксид (особено след 40г.) Mod vege   02.04.22 00:03
. * Кратка история на зеленчуците Mod vege   11.05.22 15:13
. * Ето как се отразява канибализмът на човешкото тяло Mod vege   22.05.22 14:03
. * 7 ползи от интервалното гладуване освен отслабване Mod vege   28.08.22 03:06
. * Червеното месо, бактерии в червата и сърдечносъдов Mod vege   22.10.22 10:06
. * Intermittent Fasting for SERIOUS WEIGHT LOSS- Berg Mod vege   28.10.22 22:52
. * BLOCK the Side Effects of SUGAR, BREAD and ALCOHO Mod vege   31.10.22 01:21
. * Building Muscle Over Age 40 - Complete Guide Mod vege   08.11.22 22:33
. * Re: Building Muscle Over Age 40 - Complete Guide Mod vege   11.02.23 05:21
. * Intermittent Fasting over Age 40: Complete Guide Mod vege   09.11.22 09:33
. * How to Build Muscle with Fasting | The Guide Mod vege   12.03.23 07:58
. * Best Protein Sources for Vegan Keto (video) Mod vege   28.11.22 08:06
. * Периодичното гладуване възстановява нервите Mod vege   02.12.22 23:18
. * Lead and Cadmium Could Be in Your Dark Chocolate Mod vege   19.12.22 21:45
. * Ще могат ли хората да живеят на Марс? Mod vege   02.01.23 08:25
. * V-Label stellt neue Logos vor und markiert globale Mod vege   10.01.23 08:33
. * Тайните на успешното отслабване с контрол над хорм Mod vege   30.01.23 01:19
. * Картофи Mod vege   08.02.23 23:34
. * Brian Johnson: young again - 45 са новото 18 Mod vege   23.02.23 05:25
. * Brian Johnson: One meal, 23 hr fast,100% nutrition Mod vege   23.02.23 05:38
. * Re: Brian Johnson: interview (video) Mod vege   13.08.23 23:11
. * Пет начина да загубите тегло, докато спите Mod vege   25.02.23 02:55
. * Зеленият път на „Алгае България“ Mod vege   05.03.23 17:41
. * СБОГОМ, AI. ЗАДАВА СЕ ОРГАНОИДНИЯТ ИНТЕЛЕКТ, КОЙТО Mod vege   05.03.23 22:13
. * Top AI Companies In Healthcare To Keep An Eye On Mod vege   13.08.24 16:20
. * AI чертае сценарии във войните, но решенията все.. Mod vege   20.01.25 02:41
. * Професиите на бъдещето: Психолог на изкуствен инте Mod vege   20.03.25 14:14
. * 6 храни, които ще повишат нивата ви на тестостерон Mod vege   08.03.23 03:35
. * Enzyme that can turn air into energy... Mod vege   11.03.23 01:54
. * Липса на сън -> сърдечни заболявания & възпаления Mod vege   12.03.23 00:43
. * The 5 Stages of Fasting (And The Benefits of Each Mod vege   26.03.23 08:01
. * TESTOSTERON & HGH STEIGERN DURCH INTERMITTIERENDES Mod vege   27.03.23 13:04
. * Д-р Минди Пелц Mod vege   23.04.23 01:28
. * Fasting effects after 12, 18, 24, 48, 72 hours Mod vege   21.06.23 22:32
. * Re: Intervallfasten - alle Infos Mod vege   29.06.23 00:23
. * Периодично гладуване: как да го правим правилно Mod vege   17.12.23 09:27
. * Different Types of Stem Cells and their Functions Mod vege   26.03.23 08:20
. * Side Effects of Stem Cell Therapy Mod vege   26.03.23 08:26
. * д-р Тошков - Адренална Умора Mod vege   22.04.23 22:45
. * 13 Steps to Stay Under 8% Bodyfat - Thomas DeLauer Mod vege   25.04.23 04:08
. * 12 Golden Rules for Fat Loss that - Thomas DeLauer Mod vege   18.05.23 16:23
. * 5-те тайни на бойците за отслабването Mod vege   19.05.24 16:56
. * Отслабва ли се наистина с ходене? Mod vege   18.01.25 17:23
. * How to eliminate visceral fat in 30 days Mod vege   06.05.25 04:06
. * Tongkat Ali & Fadogia Agrest for testosterone? Mod vege   27.04.23 05:45
. * How To Increase Testosterone in Men – Dr.Berg Mod vege   04.07.23 05:50
. * 7-те най-ужасни микроба в залата Mod vege   28.04.23 00:50
. * Bryan Johnson is reversing his age Mod vege   28.04.23 02:55
. * Правилно комбиниране на храни - д-р Х.М. ШЕЛТЪН Mod vege   07.05.23 21:49
. * тъй де ~@!$^%*amp;()_+   08.05.23 22:30
. * Мозъкът на възрастния човек е много по-практичен Mod vege   11.05.23 17:35
. * SLOW Carb Absorption to Lower Blood Sugar Mod vege   18.05.23 17:32
. * These 7 Foods BLOCK CARB Absorption Mod vege   18.05.23 17:37
. * Benefits of WALKING You Never Knew About Mod vege   18.05.23 19:23
. * The #1 Reason for “Stubborn” Belly Fat - Delauer Mod vege   18.05.23 21:29
. * 5 факта за изгаряне на мазнини Mod vege   23.07.23 13:10
. * Истинските лимити на тялото Mod vege   29.05.23 00:53
. * Cold-Water Immersion Benefits for Your Genetics Mod vege   01.06.23 05:07
. * Кой е ИИ / AI? (видео) Mod vege   03.06.23 01:06
. * ПОВЕЧЕ „ИЗКУСТВЕН“ ОТКОЛКОТО „ИНТЕЛЕКТ“ Mod vege   21.06.23 00:25
. * AI alignment in the dimensionality of machine inte Mod vege   13.08.24 06:44
. * В Китай: Институт за контрол върху изкуствения инт Mod vege   02.09.24 03:36
. * Unlock AI & Scale Deep Tech Innovations (EU) Mod vege   27.09.24 15:30
. * Why Future AI Will Not Become Conscious, Unless We Mod vege   01.10.24 01:33
. * + more comments Mod vege   01.10.24 02:37
. * Podcast der Maschinen Mod vege   05.10.24 16:44
. * Три дни в INSAIT: Естественият интелект зад AI в.. Mod vege   18.03.25 03:32
. * Диета според гените Mod vege   11.06.23 12:33
. * Guide for muscle sparing fasting Mod vege   27.06.23 00:38
. * Глупостите около гладуването, отслабването и напъл Mod vege   03.07.23 17:09
. * Does Vitamin D created by sun exposure get washed? Mod vege   12.07.23 00:38
. * Will a Shower After Sunbathing Wash Away Vitamin D Mod vege   12.07.23 00:51
. * Harward professor: How You Can Prevent Cancer Mod vege   16.07.23 15:27
. * Хормоните, които отделяме по времена тренировка Mod vege   07.09.23 00:38
. * Ставни проблеми и предпазване от тях Mod vege   28.10.23 14:54
. * Чрез тренировки-справяне и с най-големите проблеми Mod vege   03.08.24 09:08
. * Как да горим повече мазнини? Mod vege   11.09.23 04:01
. * Ще могат ли хората да живеят на Марс? Mod vege   16.09.23 14:39
. * Червен хайвер Mod vege   29.10.23 04:41
. * Какво представляват адаптогените... Mod vege   12.11.23 07:13
. * Флотация и нервна система Mod vege   17.11.23 19:34
. * Dr Daniel E. Lieberman, Harvard Prof.: 7 Lies... Mod vege   24.11.23 13:19
. * За естествената интелигентност Mod vege   09.12.23 13:11
. * За естествената интелигентност - P2 Mod vege   13.12.23 15:18
. * Is Consciousness Everywhere? P1 Mod vege   09.12.23 13:25
. * Is Consciousness Everywhere? P2 Mod vege   09.12.23 13:30
. * Създадоха функционален компютър с човешка мозъчна Mod vege   12.12.23 14:09
. * Хапче, което замества цяло хранене, беше представе Mod vege   14.12.23 07:36
. * How muscle hypertrophy works, giving a program Mod vege   19.12.23 01:07
. * ООН: Ограничаването на месото ще намали замърсяван Mod vege   20.12.23 22:00
. * Тежки метали в шоколада Mod vege   24.12.23 09:28
. * 'Вътрешният саламандър'-как възстановява хрущял... Mod vege   24.12.23 12:09
. * Best Way to Rid ALCOHOL (& SUGAR) Cravings Mod vege   25.12.23 09:02
. * What Are Advanced Glycation End Products (AGEs)? Mod vege   27.12.23 02:47
. * Reverse Glycation for a Longer and Healthier Life Mod vege   27.12.23 03:54
. * What is Allulose? - low calorie sugar Mod vege   02.01.24 19:22
. * Извлечи максимума от протеините, които приемаш Mod vege   09.01.24 02:21
. * Изпиваме хиляди частици пластмаса с един литърH2O Mod vege   10.01.24 03:28
. * Diet of Harvard Genetics Professor David Sinclair Mod vege   12.01.24 02:57
. * COUNTERING CARBAMYLATION CONSERVES MUSCLE:Nun Amen Mod vege   13.01.24 13:46
. * Емил Златев: 5 показателя за нормално хранене... Mod vege   09.02.24 03:58
. * Natto Nutrition Facts and Health Benefits Mod vege   14.03.24 04:54
. * How robots can learn to follow a moral code Mod vege   21.03.24 02:10
. * The challenge of making moral machines Mod vege   21.03.24 02:19
. * Честит 1-ви април! Забавен хороскоп Mod vege   01.04.24 20:54
. * https://moneypantry.com/get-paid-for-your-jokes/ Mod vege   13.08.24 15:14
. * Кратък наръчник за хранителните добавки Mod vege   14.04.24 01:19
. * Комбиниране на креатин с бета-аланин Mod vege   06.06.24 10:26
. * Blood biomarker profiles and exceptional longevity Mod vege   18.06.24 01:20
. * University Futures and Foresight Degrees and Progr Mod vege   06.07.24 04:53
. * Foresight Graduate Programs - Global List Mod vege   06.07.24 04:59
. * How Quantum Computing Impacts Cybersecurity Career Mod vege   19.08.24 01:52
. * Арестуваха създателя на Telegram в Париж Mod vege   25.08.24 11:13
. * Comparing Tadalafil (Generic Cialis) & Sildenafil Mod vege   19.08.24 12:25
. * Какво са пептидите? Mod vege   09.09.24 02:29
. * Physik-Nobelpreis:Wieviel Physik in neuronalen Net Mod vege   08.11.24 14:23
. * Пробиотици Reuteri – произход, състав, ... Mod vege   14.12.24 12:11
. * Как канибализмът се поревърна в най-голямото табу Mod vege   17.02.25 03:42
. * За Кокосовата вода Mod vege   29.03.25 02:12
. * Компаниите, създаването на квантов чип Mod vege   30.04.25 00:39
. * White Women Under 30 Have A Mental Health Issue Mod vege   06.05.25 04:12
. * Феминизмът и лицемерието на „правилното насилие“: Mod vege   17.05.25 00:13
. * Dr. Berg: SEED OILS EXPOSED Mod vege   02.06.25 16:29
Клуб :  


Clubs.dir.bg е форум за дискусии. Dir.bg не носи отговорност за съдържанието и достоверността на публикуваните в дискусиите материали.

Никаква част от съдържанието на тази страница не може да бъде репродуцирана, записвана или предавана под каквато и да е форма или по какъвто и да е повод без писменото съгласие на Dir.bg
За Забележки, коментари и предложения ползвайте формата за Обратна връзка | Мобилна версия | Потребителско споразумение
© 2006-2025 Dir.bg Всички права запазени.