AI Winter

FONT SIZE:
fontsize_dec
fontsize_inc
Februar 13, 2016 Fred Overbeck A 0 2

In der Geschichte der künstlichen Intelligenz, ist ein AI Winter eine Zeit der geringeren Mitteln und das Interesse an der Erforschung künstlicher Intelligenz. Der Begriff wurde in Analogie zu der Idee eines nuklearen Winter geprägt. Das Feld hat mehrere Zyklen der Hype erlebt, gefolgt von Enttäuschung und Kritik, gefolgt von Mittelkürzungen, gefolgt von erneutem Interesse Jahre oder Jahrzehnte später. Es gab zwei große Winter in 1974-80 und 1987-93 und mehrere kleinere Episoden, einschließlich:

  • 1966: das Scheitern der maschinellen Übersetzung,
  • 1970: der Verzicht auf Konnektionismus,
  • 1971-1975: DARPA Frustration mit dem Sprachverstehen Forschungsprogramm an der Carnegie Mellon University,
  • 1973: die große Abnahme der KI-Forschung in Großbritannien in Reaktion auf die Light Bericht,
  • 1973-1974: DARPA Kürzungen akademische KI-Forschung im Allgemeinen,
  • 1987: der Zusammenbruch der Lisp-Maschine Markt,
  • 1988: die Aufhebung der neuen Ausgaben für die AI von der Strategic Computing Initiative,
  • 1993: Expertensysteme langsam an den Boden,
  • 1990er Jahre: die ruhige Verschwinden der ursprünglichen Ziele der fünften Generation Computerprojekt,

Der Begriff tauchte zum ersten Mal 1984 als Thema einer öffentlichen Debatte auf der Jahrestagung der VZK. Es ist eine Kettenreaktion, die mit Pessimismus in der AI-Gemeinschaft, gefolgt von Pessimismus in der Presse, gefolgt von einer starken Kürzung der Förderung beginnt, gefolgt von dem Ende der ernsthafte Forschung. Bei dem Treffen, Roger Schank und Marvin Minsky beiden führenden KI-Forscher, die das "Winter" der 1970er Jahre überlebt hatte, warnte der Wirtschaft, dass die Begeisterung für AI in den 80er Jahren außer Kontrolle geraten war, und dass Enttäuschung wäre sicherlich folgen. Drei Jahre später begann die Milliarden-Dollar-AI-Industrie zu kollabieren.

Hype-Zyklen sind in vielen neuen Technologien, wie beispielsweise die Eisenbahn Manie oder der Dotcom-Blase verbreitet. Ein AI Winter ist vor allem ein Einbruch in der Wahrnehmung der AI von Regierungsbürokraten und Risikokapitalgeber. Trotz der Aufstieg und Fall der AI Ruf hat es immer wieder neue und erfolgreiche Technologien zu entwickeln. AI-Forscher Rodney Brooks würde im Jahr 2002 beschweren sich, dass "es gibt diese dumme Mythen gibt, die AI ist fehlgeschlagen, aber AI ist um dich jede Sekunde des Tages." Ray Kurzweil stimmt zu: "Viele Beobachter glauben immer noch, dass die AI Winter war das Ende der Geschichte, und dass nichts, da hat der Feld AI kommen Doch heute viele Tausende von KI-Anwendungen sind tief in die Infrastruktur jeder Industrie eingebettet.." Er fügt hinzu: "die KI Winter ist längst vorbei."

Frühen Episoden

Maschinelle Übersetzung und die ALPAC Bericht 1966

Während des Kalten Krieges, besonders daran interessiert, die automatische, sofortige Übersetzung von russischen Dokumente und wissenschaftliche Berichte war die US-Regierung. Die Regierung aggressiv unterstützt Bemühungen um eine maschinelle Übersetzung beginnend im Jahr 1954. Zu Beginn konnten die Forscher optimistisch. Noam Chomsky die neue Arbeit in der Grammatik wurde den Übersetzungsprozess zu straffen und zu gab es "viele Vorhersagen von drohenden" Durchbrüche "".

Allerdings hatten die Forscher die tiefgreifenden Schwierigkeiten bei der Begriffsklärung unterschätzt. Um einen Satz zu übersetzen, benötigt eine Maschine, um eine Vorstellung davon, was der Satz war zu haben, andernfalls es machte lächerliche Fehler. Eine anekdotische Beispiel war "der Geist ist willig, aber das Fleisch ist schwach." Übersetzt hin und her mit russischen, wurde es "der Wodka ist gut, aber das Fleisch ist faul." In ähnlicher Weise "aus den Augen, aus dem Sinn" wurde "Blind Idiot." Später Forscher würde diesen Aufruf das Alltagswissen Problem.

Bis 1964 hatte das National Research Council besorgt über die mangelnden Fortschritte geworden und bildete die automatische Sprachverarbeitung Beratenden Ausschusses, in das Problem zu suchen. Sie schlossen daraus, in einem berühmten Bericht 1966, dass maschinelle Übersetzung war teurer, weniger genau und langsamer als menschliche Übersetzung. Nachdem er einige 20 Millionen Dollar endete die NRC alle Unterstützung. Karriere zerstört und Forschung beendet.

Maschinelle Übersetzung ist noch offen Forschungsproblem im 21. Jahrhundert, die mit einigem Erfolg erfüllt ist.

Der Verzicht auf Konnektionismus 1969

Einige der frühesten Arbeiten im AI verwendet Netze oder Stromkreise der angeschlossenen Geräte, um intelligentes Verhalten zu simulieren. Beispiele für diese Art von Arbeit, die so genannte "Konnektionismus", gehören Walter Pitts und Warren McCullough erste Beschreibung eines neuronalen Netzes für Logik und Marvin Minsky Arbeit an der SNARC System. In den späten 50er Jahren, die meisten dieser Ansätze wurden aufgegeben, als Forscher begannen, symbolische Denken als das Wesen der Intelligenz zu erforschen, nach dem Erfolg von Programmen wie Logic Theoretiker und General Problem Solver.

Aber eine Art von connectionist Arbeit fort: das Studium der Perceptrons, von Frank Rosenblatt, der das Feld am Leben mit seinem Verkaufstechnik und der schieren Kraft seiner Persönlichkeit gehalten erfunden. Er optimistisch voraus, dass die Perzeptron "kann schließlich in der Lage zu lernen, Entscheidungen zu treffen, und übersetzen Sprachen sein." Mainstream-Forschung in Perzeptronen kam zu einem abrupten Ende 1969, als Marvin Minsky und Seymour Papert veröffentlichte das Buch Perceptrons, die als umreißt die Grenzen des Perceptrons tun konnte wahrgenommen wurde.

Für den nächsten zehn Jahren oder so wurden Connectionist Ansätze aufgegeben. Während wichtige Arbeit, wie zum Beispiel Paul Werbos 'Entdeckung des Backpropagation, in begrenztem Umfang fort, wichtige Mittel für connectionist Projekte war schwierig, in den 1970er und frühen finden 80ern. Der "Winter" von connectionist Forschung kam zu einem Ende in der Mitte der 80er Jahre, als die Arbeit von John Hopfield, David Rumelhart und andere belebte Groß Interesse an neuronalen Netzen. Rosenblatt nicht leben, das zu sehen, aber. Er starb bei einem Bootsunfall kurz nach Perceptrons veröffentlicht.

Die Rückschläge des Jahres 1974

Die Lightbericht

Im Jahr 1973 wurde Professor Sir James Lighthill von der britischen Parlament aufgefordert, den Zustand der KI-Forschung in Großbritannien zu bewerten. Sein Bericht, jetzt genannt Light Bericht kritisierte die völlige Versagen der AI auf seine zu erreichen "grandiose Ziele." Er folgerte, dass nichts in AI geschehen konnte nicht in anderen Wissenschaften durchgeführt werden. Ausdrücklich erwähnte er das Problem der "kombinatorischen Explosion" oder "Widerspenstigkeit", was impliziert, dass viele von AI erfolgreichsten Algorithmen würden zum Stillstand auf reale Probleme schleifen und nur zur Lösung von "Spielzeug" Versionen geeignet.

Der Bericht wurde in einer Debatte in der BBC "Controversy" Serie 1973 ausgestrahlt Die Debatte bestritten "Der allgemeine Zweck Roboter ist eine Fata Morgana" aus dem Royal Institute war Lighthill gegenüber dem Team von Donald Michie, John McCarthy und Richard Gregory. McCarthy schrieb später, dass "der kombinatorischen Explosion Problem ist in AI von Anfang an erkannt worden."

Der Bericht führte zum vollständigen Abbau der KI-Forschung in England. KI-Forschung weiterhin in nur wenigen Top-Universitäten. Dieses "schuf eine Bugwelle Effekt, um Kürzungen in ganz Europa geführt", schreibt James Hendler. Forschung würde nicht in großem Umfang wieder zu beleben, bis 1983, als Alvey begann AI in Reaktion auf den japanischen Fifth Generation Projekt erneut zu finanzieren von einer Kriegskasse von 350 Mio. £. Alvey hatte eine Reihe von UK-Anforderungen, die nicht nur international gut sitzen wollte, vor allem mit US-Partnern, und verlor Phase-2-Finanzierung.

DARPA Kürzungen von den frühen 70er Jahren

In den 1960er Jahren, die Defense Advanced Research Projects Agency bereitgestellt Millionen von Dollar für die KI-Forschung mit fast nicht an Bedingungen geknüpft. DARPA-Direktor in jenen Jahren, glaubten JCR Licklider in "Finanzierungs Menschen, nicht-Projekte" und erlaubte Führer AI, es auszugeben fast jede Art, wie sie wollte.

Diese Haltung änderte sich nach dem Durchgang von Mansfield Änderung im Jahr 1969, die DARPA erforderlich, um zu finanzieren "missionsorientierte direkte Forschung, sondern als Grund ungerichtete Forschung." Reine ungerichtete Forschung von der Art, die sich auf in den 60er Jahren gegangen war, nicht mehr von DARPA finanziert werden. Die Forscher hatten nun zu zeigen, dass ihre Arbeit bald zu produzieren einige nützliche Militärtechnologie. KI-Forschung Vorschläge wurden zu einem sehr hohen Standard gehalten. Die Situation war nicht zu helfen, wenn die Lightbericht und DARPA eigenen Studie vorgeschlagen, dass die meisten KI-Forschung war unwahrscheinlich, dass irgendetwas in absehbarer Zukunft wirklich nützlich zu produzieren. DARPA Geld wurde bei konkreten Projekten mit identifizierbaren Ziele wie autonome Panzer und Kampfmanagement-Systeme gerichtet. Mit dem Jahr 1974 Mittel für die AI-Projekten war schwer zu finden.

AI-Forscher Hans Moravec machte die Krise an den unrealistischen Prognosen seiner Kollegen: "Viele Forscher wurden in einem Netz von steigenden Übertreibung gefangen Ihre anfänglichen Versprechungen DARPA war viel zu optimistisch Natürlich, was sie geliefert deutlich unter, dass gestoppt.. . Aber sie fühlte sie sich nicht in ihrem nächsten Vorschlag weniger als in den ersten ein versprechen, so dass sie mehr versprochen. " Das Ergebnis, Moravec behauptet, ist, dass einige der Angestellten an DARPA hatte Geduld mit KI-Forschung verloren. "Es war buchstäblich am DARPA formuliert, dass" einige dieser Leute im Begriff waren, eine Lektion mit ihren zwei Millionen Dollar-a-Jahres-Verträge zu fast nichts geschnitten gelehrt werden! '"Moravec sagte Daniel Crevier.

Während die autonome Tank Projekt war ein Misserfolg erwies sich der Kampf-Management-System enorm erfolgreich zu sein, spart Milliarden in den ersten Golfkrieg, die Rückzahlung aller Darpas Investitionen in AI und begründet DARPA pragmatische Politik.

Die SUR-Debakel

DARPA war tief enttäuscht über Forscher, die an der Sprachverstehen Forschungsprogramm an der Carnegie Mellon University. DARPA erhofft hatte, und fühlte es versprochen worden war, ein System, das zu reagieren könnte, um Befehle von einem Piloten zu äußern. Die SUR-Team hatte ein System, das gesprochenen Englisch zu erkennen könnten entwickelt, aber nur, wenn die Wörter in einer bestimmten Reihenfolge gesprochen. DARPA es fühlte sich betrogen worden war, und im Jahr 1974 abgesagt sie ein Drei-Millionen-Dollar ein Jahres-Zuschuss.

Viele Jahre später, erfolgreiche kommerzielle Spracherkennungssysteme die von der Carnegie Mellon-Team und dem Markt für Spracherkennungssysteme entwickelte Technologie verwenden würde wäre $ 4 Milliarden bis zum Jahr 2001 zu erreichen.

Die Rückschläge der späten 80er und frühen 90er Jahren

Der Zusammenbruch der Lisp Maschinenmarkt im Jahr 1987

In den 1980er Jahren eine Form der AI-Programm namens ein "Expertensystem" wurde von Unternehmen auf der ganzen Welt angenommen. Der erste kommerzielle Expertensystems war XCON, an der Carnegie Mellon für Digital Equipment Corporation entwickelt, und es war ein großer Erfolg: es wurde geschätzt, das Unternehmen 40 Millionen Dollar über sechs Jahren Betrieb gespeichert haben. Unternehmen auf der ganzen Welt begann sich zu entwickeln und bereitstellen, Expertensysteme und bis 1985 waren sie verbringen mehr als eine Milliarde Dollar für AI, die meisten davon in-house AI Abteilungen. Eine Industrie wuchs um sie zu unterstützen, einschließlich Software-Unternehmen wie Teknowledge und IntelliCorp, und Hardware-Firmen wie Symbolics und Lisp Machines Inc., die spezialisierte Computer gebaut, genannt Lisp-Maschinen, die optimiert wurden, um die Programmiersprache Lisp, die bevorzugte Sprache für AI verarbeiten .

Im Jahr 1987, drei Jahre nach Minsky und Schank Vorhersage der Markt für spezialisierte AI Hardware zusammengebrochen. Workstations von Firmen wie Sun Microsystems bietet eine leistungsstarke Alternative zu LISP Maschinen und Unternehmen wie Lucid bot eine LISP-Umgebung für diese neue Klasse von Arbeitsplätzen. Die Leistung dieser allgemeinen Arbeitsstationen wurde eine zunehmend schwierige Herausforderung für die LISP-Maschinen. Unternehmen wie Lucid und Franz LISP angeboten werden zunehmend leistungsfähigere Versionen von LISP. So wurden zum Beispiel Benchmarks veröffentlicht, die Workstations Aufrechterhaltung einer Leistungsvorteil gegenüber LISP-Maschinen. Später Desktop-Computer von Apple und IBM gebaut würde auch eine einfachere und Volksarchitektur zu LISP Anwendungen laufen. Bis 1987 waren sie stärker als die teureren Lisp-Maschinen geworden. Die Desktop-Computer hatte regelbasierten Engines wie Videos vorhanden. Diese Alternativen gelassen Verbraucher mit keinen Grund, eine teure Maschine spezialisiert für die Ausführung von LISP zu kaufen. Eine ganze Industrie im Wert von einer halben Milliarde Dollar wurde in einem einzigen Jahr ersetzt.

Handel, konnten in vielen Lisp Unternehmen wie Symbolics, Lisp Machines Inc., Lucid Inc., etc. Andere Unternehmen wie Texas Instruments und Xerox verlassen das Feld. Jedoch eine Reihe von Kundenfirmen weiter zu praktizieren. In einigen Fällen beteiligt diese Wartungs die Annahme der erhaltenen Unterstützungsarbeit.

Der Fall der Expertensysteme

Durch den frühen 90er Jahren, die ersten erfolgreichen Expertensysteme, wie beispielsweise XCON, erwies sich als zu teuer im Unterhalt. Sie waren schwer zu aktualisieren, können sie nicht lernen konnte, sie seien "spröde", und sie zum Opfer gefallen Probleme, die Jahre zuvor in der Forschung in nicht monotone Logik identifiziert worden war. Expertensysteme als nützlich erwiesen, aber nur in wenigen speziellen Kontexten. Ein weiteres Problem mit der Rechen Härte der Wahrheit Wartungsaufwand für Allgemeinwissen behandelt. KEE verwendet eine Annahme basierten Ansatz unterstützt Multiple-Szenarien, die schwierig war, zu verstehen und anzuwenden.

Die wenigen verbliebenen Expertensystem-Schale Unternehmen wurden schließlich gezwungen, zu verkleinern und die Suche nach neuen Märkten und Software-Paradigmen, wie fallbezogene Beweisführung oder Universal-Datenbankzugriff. Die Reifung von Common Lisp rettete viele Systeme wie ICAD die Anwendung in der Knowledge Based Engineering gefunden. Andere Systeme, wie IntelliCorps KEE, zog von Lisp auf eine C ++ auf dem PC und half bei der Gründung der objektorientierten Technologie.

Die fizzle der fünften Generation

Im Jahr 1981, dem japanischen Ministerium für internationalen Handel und Industrie beiseite $ 850 Millionen für das Computerprojekt der fünften Generation. Ihre Ziele waren die Programme schreiben und bauen Maschinen, die Gespräche zu führen könnten, zu übersetzen Sprachen, Bilder zu interpretieren und deshalb wie Menschen. Bis 1991 hatte sich die eindrucksvolle Liste von Zielen im Jahr 1981 schrieb nicht erfüllt. In der Tat, einige von ihnen waren im Jahr 2001 nicht erfüllt sind, oder 2011. Wie bei anderen AI-Projekten, die Erwartungen waren viel höher als das, was tatsächlich möglich war, ausgeführt.

Kürzungen im Strategic Computing Initiative

Im Jahr 1983 als Reaktion auf die Projekt fünften Generation, begann wieder DARPA zu KI-Forschung durch die Strategic Computing Initiative zu finanzieren. Wie ursprünglich vorgeschlagen das Projekt mit praktischen, erreichbare Ziele, die auch enthalten starke KI als langfristiges Ziel zu beginnen. Das Programm wurde unter der Leitung des Büros der Technik der Informationsverarbeitung und wurde auch auf Supercomputing und Mikroelektronik gerichtet. Bis 1985 war es $ 100 Millionen aufgewendet und 92 Projekte waren im Gange bei 60 Institutionen, die Hälfte in der Industrie, die Hälfte in Universitäten und staatlichen Labors. KI-Forschung wurde großzügig von der SCI finanziert.

Jack Schwarz, der auf der Leitung von IPTO 1987 bestieg, entließ Expertensysteme als "clevere Programmierung" und schneiden Mittel für AI "tief und brutal", "Ausnehmen" SCI. Schwarz fühlte, dass DARPA sollte ihre Finanzierung nur auf jene Technologien, die die meisten Versprechen zeigten, in seinen Worten, DARPA sollte "surfen", sondern als "dog paddle" zu konzentrieren, und er fühlte sich stark AI war nicht "die nächste Welle". Insider im Programm genannten Probleme in der Kommunikation, Organisation und Integration. Einige Projekte überlebte die Kürzungen, einschließlich Assistenten Piloten und einer autonomen Landfahrzeugs und der DART-Schlacht-Management-System, das erfolgreich war.

Tiger Wirkung der AI Winter

Der Winter, der nicht enden würde

Ein Überblick über Berichte von Mitte der 2000er Jahre nahe, dass AI Ruf immer noch weniger als stellare war:

  • Alex Castro, in The Economist, 7. Juni 2007 zitiert: "wurden durch den Begriff" Spracherkennung "setzen, die wie 'künstliche Intelligenz' wird mit Systemen, die allzu oft versäumt, ihre Versprechen gerecht sind."
  • Patty Tascarella in Pittsburgh Business Times, 2006: "Einige glauben, das Wort" Robotik "tatsächlich trägt ein Stigma, das die Chancen eines Unternehmens bei Finanzierungs weh tut."
  • John Markoff in der New York Times, 2005: "An ihren Tiefpunkt, einige Informatiker und Software-Ingenieure vermieden den Begriff der künstlichen Intelligenz, aus Angst, als wilden Augen Träumer angesehen."

AI unter verschiedenen Namen

Viele Forscher in AI heute bewusst ihre Arbeit rufen unter anderen Namen, wie Informatik, maschinelles Lernen, wissensbasierte Systeme, Business Rules Management, kognitive Systeme, intelligente Systeme, intelligente Agenten oder Computational Intelligence, um anzugeben, dass ihre Arbeit betont insbesondere Werkzeuge oder an einer bestimmten Teilproblem gerichtet. Obwohl dies zum Teil, weil sie betrachten ihre Feld grundlegend von AI sein, ist es auch wahr, dass die neuen Namen zu helfen, die Finanzierung durch die Vermeidung der Stigmatisierung von falschen Versprechungen auf den Namen angehängt zu beschaffen "künstlichen Intelligenz."

AI hinter die Kulissen

"Viele Beobachter glauben immer noch, dass die AI Winter war das Ende der Geschichte, und dass nichts, da der Feld AI kommen", schreibt Ray Kurzweil, "noch heute viele Tausende von KI-Anwendungen sind tief in die Infrastruktur jeder Industrie eingebettet ist." In den späten 90er Jahren und Anfang des 21. Jahrhunderts, wurde AI-Technologie weit verbreitet als Elemente der größerer Systeme verwendet, aber das Feld ist nur selten für diesen Erfolgen gutgeschrieben. Nick Bostrom, erklärt: "Viele innovative AI hat sich in allgemeinen Anwendungen gefiltert, oft ohne gerufen AI, denn wenn etwas wird nützlich genug und häufig genug, dass es nicht mehr AI bezeichnet." Rodney Brooks fügt hinzu: "Es ist das dumme Mythen gibt, die AI ist fehlgeschlagen, aber AI ist um dich jede Sekunde des Tages."

Von KI-Forscher entwickelten Technologien haben kommerziellen Erfolg in einer Reihe von Bereichen, wie zum Beispiel maschinelle Übersetzung, Data Mining, Industrierobotik, Logistik, Spracherkennung, Bankensoftware, medizinische Diagnostik und die Suchmaschine von Google erreicht.

Fuzzy-Logik-Controller sind für automatische Getriebe in Automobilen entwickelt derzeit auch gehören eine Fuzzy Logic basierende Steuerung). Kamerasensoren weit verbreitet nutzen Fuzzy-Logik, um den Fokus zu aktivieren.

Heuristische Suche und Datenanalyse sind beide Technologien, die von der evolutionären Datenverarbeitung und maschinelles Lernen Teilung der AI-Forschung entwickelt haben. Wiederum haben diese Techniken eine Vielzahl von Problemen der realen Welt einen beträchtlichen kommerziellen Erfolg angewendet worden.

Im Falle der heuristische Suche hat ILOG eine große Anzahl von Anwendungen, einschließlich Ableitung Lohnfertiger Pläne für viele Fertigungsanlagen entwickelt. Viele Telekommunikationsunternehmen machen auch Einsatz dieser Technologie in der Verwaltung ihrer Belegschaften, zum Beispiel BT Group hat heuristische Suche in einer Planungsanwendung, die die Arbeitszeiten von 20.000 Ingenieuren bietet im Einsatz.

Datenanalyse-Technologie nutzen Algorithmen zur automatisierten Bildung von Klassifikatoren, die in der überwachten Maschine Lerngemeinschaft in den 1990er Jahren entwickelt wurden, werden nun pervasively von Unternehmen für Marketing-Umfrage Targeting und Entdeckung von Trends und Merkmalen in Datensätzen verwendet.

AI Finanzierung

Vor allem die Art, wie die Forscher und Ökonomen beurteilen den Status eines AI Winter ist durch die Überprüfung, die AI Projekte werden finanziert, wie viel und von wem. Trends bei der Finanzierung sind oft von großen Förderorganisationen in der entwickelten Welt gesetzt. Derzeit DARPA und ein Zivilist Förderprogramm genannte EU-FP7 bieten viel von der Finanzierung für KI-Forschung in den USA und der Europäischen Union.

Ab 2007 wird DARPA Einholen KI-Forschung von Vorschlägen im Rahmen einer Reihe von Programmen, einschließlich der Grand Challenge Program, kognitive Technologie Threat Warning System, "Human Assisted Neural Devices", "Autonome Real-Time Boden Ubiquitous Surveillance-Imaging System" und "Urban Reasoning und Geospatial Exploitation Technology "

Vielleicht am besten bekannt ist, ist die DARPA Grand Challenge Program, die entwickelt Straßenfahrzeugen, die reale Welt Gelände erfolgreich zu navigieren können in einer vollständig autonom vollautomatische hat.

DARPA hat auch Programme auf dem Semantic Web mit einem großen Wert auf intelligente Management von Inhalten und automatisierten Verständnis unterstützt. Doch James Hendler, der Manager des DARPA-Programm zu der Zeit, ausgedrückt gewisse Enttäuschung über das Ergebnis des Programms.

Die EU-FP7 Finanzierungsprogramm, bietet finanzielle Unterstützung für Forscher in der Europäischen Union. Interaktion und Robotik Programme, die Digitale Bibliotheken und Content-Programm und das FET-Programm: Derzeit ist es KI-Forschung unter den Kognitive Systeme finanziert

Die Angst vor einem weiteren Winter

Bedenken werden manchmal erhöht, dass eine neue AI Winter könnte von jedem zu ehrgeizig oder unrealistische Versprechen von prominenten AI Wissenschaftlern ausgelöst werden. Zum Beispiel, einige Forscher befürchten, dass die weithin bekannt Versprechungen in den frühen 1990er Jahren, die Cog würde die Intelligenz eines Menschen zwei-jährige zeigen könnte zu einem AI Winter führen. In der Tat scheint die Cog-Projekt und der Erfolg von Deep Blue zu einem Anstieg des Interesses an starke KI in diesem Jahrzehnt von der Regierung und der Industrie geführt.

James Hendler im Jahr 2008 festgestellt, dass AI Finanzierung sowohl in der EU und den USA wurden mehr in Anwendungen und Kreuzungen mit traditionellen Wissenschaften wie Bioinformatik kanalisiert. Diese Abkehr von der Grundlagenforschung wird zur gleichen Zeit geschieht, wie es ein Streben nach Anwendungen zB Das Semantic Web. Unter Berufung auf die Pipeline Argument, sah Hendler eine parallel mit der 80er Winter und warnte vor einem kommenden AI Winter in den '10s.

Hoffnung auf eine weitere Feder

Es gibt auch Berichte, dass ein anderer konstanter AI Frühjahr bevorsteht oder bereits eingetreten:

  • Raj Reddy, in seiner Ansprache als Präsident zu AAAI 1988: "er Feld ist spannender denn je unsere jüngsten Fortschritte sind erheblich und wesentlich und die mythische AI ​​Winter kann in eine AI Frühjahr gedreht haben sehe ich viele Blumen blühen...."
  • Pamela McCorduck in Maschinen, die sie denken: "In den 1990er Jahren, Triebe von grünen brach durch die winterlichen AI Boden."
  • Jim Hendler und Devika Subramanian in AAAI Newsletter 1999: "Der Frühling ist da Weit weg von der AI Winter der letzten zehn Jahre ist es jetzt eine gute Zeit, um in AI zu sein!".
  • Ray Kurzweil in seinem Buch The Singularity is Near, 2005: "Die KI Der Winter ist längst vorbei"
  • Heather Halvenstein in Computerworld, 2005: "Die Forscher sind jetzt aus Schwellen, was man eine" AI Winter "genannt"
  • John Markoff in der New York Times, 2005: "Jetzt gibt es sprechen über ein AI Frühjahr unter den Forschern"
  • James Hendler, im Editorial von 2007 Mai / Juni-Ausgabe von IEEE Intelligent Systems: "Wo sind all die Intelligent Agents"

Ursachen hinter AI Winter

Mehrere Erklärungen wurden weiter für die Sache der AI Winter im Allgemeinen setzen. Als AI entwickelte sich von Regierung finanziert Anwendungen auf kommerziellen diejenigen, kam eine neue Dynamik ins Spiel. Während Hype ist die am häufigsten genannten Ursachen sind die Erläuterungen nicht unbedingt gegenseitig aus.

Hype

Die AI Wintern kann teilweise als Folge von stark aufgeblasen Erwartungen und anschließende Absturz in Aktienmärkte zu sehen und durch das Eisenbahn Manie und Dotcom-Blase beispielhaft zu verstehen. Der Hype Cycle-Konzept für die neue Technologie sieht Wahrnehmung von Technik im Detail. Es beschreibt ein gemeinsames Muster in der Entwicklung neuer Technologien, wo ein Ereignis, in der Regel ein technologischer Durchbruch schafft Publizität, die auf sich selbst speist, um einen "Höhepunkt der überhöhten Erwartungen", gefolgt von einem "Trog der Desillusionierung" und später die Verwertung und Reifung des erstellen Technologie. Der entscheidende Punkt ist, dass seit dem wissenschaftlichen und technologischen Fortschritt kann Schritt mit der Öffentlichkeitsarbeit betriebene Erhöhung der Erwartungen von Investoren und anderen Stakeholdern nicht zu halten, muss ein Absturz folgen. AI-Technologie scheint keine Ausnahme von dieser Regel.

Institutionelle Faktoren

Ein weiterer Faktor ist AI Platz in der Organisation der Universitäten. Forschung über AI erfolgt häufig in Form der interdisziplinären Forschung. Ein Beispiel ist der Master of Artificial Intelligence-Programm an der KU Leuven denen Referenten aus Philosophie, um Maschinenbau zu beteiligen. AI ist daher anfällig für die gleichen Probleme andere Arten von interdisziplinären Forschungs Gesicht. Die Finanzierung erfolgt über die etablierten Abteilungen geleitet und während der Haushaltskürzungen, wird es eine Tendenz, die "Kerninhalte" der einzelnen Abteilungen zu schützen, auf Kosten der interdisziplinären und weniger traditionell Forschungsprojekte sein.

Wirtschaftliche Faktoren

Abschwung in der Volkswirtschaft führen Budgetkürzungen an den Hochschulen. Die "Kerninhalte" Tendenz verschlimmern die Auswirkungen auf die KI-Forschung und Investoren in den Markt sind wahrscheinlich ihr Geld während einer Krise in weniger riskante Unternehmungen setzen. Gemeinsam kann dies einen wirtschaftlichen Abschwung in eine AI Winter zu verstärken. Es ist erwähnenswert, dass die Light Bericht kam zu einer Zeit der Wirtschaftskrise in Großbritannien, wenn Universitäten mussten Schnitte zu machen, und die Frage war nur, welche Programme sollten gehen.

Leer-Pipeline

Es ist üblich, die Beziehung zwischen der Grundlagenforschung und Technik als eine Rohrleitung zu sehen. Fortschritte in der Grundlagenforschung zu gebären zu Fortschritten in der angewandten Forschung, die wiederum führt zu neuen kommerziellen Anwendungen. Daraus wird oft argumentiert, dass ein Mangel an Grundlagenforschung wird zu einem Rückgang der marktfähigen Technologien einigen Jahren auf der ganzen Linie führen. Diese Ansicht wurde von James Hendler 2008 erweiterte und behauptete, dass der Rückgang von Expertensystemen in den späten 80ern waren nicht aufgrund einer inhärenten und unvermeidliche Sprödigkeit von Expertensystemen, sondern um Kürzungen in der Grundlagenforschung in den 70er Jahren. Diese Expertensysteme voran in den 80er Jahren durch angewandte Forschung und Produktentwicklung, aber bis zum Ende des Jahrzehnts hatte die Pipeline trocken laufen und Expertensysteme konnten Verbesserungen, die die Sprödigkeit zu überwinden und die weitere Finanzierung gesichert haben könnte zu produzieren.

Nichtbeachtung anpassen

Der Fall der Lisp Maschinenmarkt und das Versagen der Computer der fünften Generation gab Fälle von teuren fortschrittliche Produkte, die von einfacheren und billigeren Alternativen überholt. Dies passt die Definition eines Low-End-disruptive Technologie, mit der die Lisp Maschinenhersteller an den Rand gedrängt. Expertensysteme wurden auf die neuen Desktop-Computer, indem zum Beispiel CLIPS durchgeführt, so dass der Fall der Lisp Maschinenmarkt und dem Sturz von Expertensystemen sind streng genommen zwei getrennte Veranstaltungen. Dennoch ist das Versäumnis, eine solche Änderung in der Außen Computing Milieu anzupassen als ein Grund für die 1980er Jahre AI Winter zitiert.

Argumente und Debatten über die Vergangenheit und Zukunft der KI

Einige Philosophen, Kognitionswissenschaftler und Informatiker haben, wo AI könnte versagt haben spekuliert, und was in seiner Zukunft liegt. Hubert Dreyfus gab Argumente, warum AI ist unmöglich zu erreichen. Andere Kritiker wie Noam Chomsky haben argumentiert, dass AI wird in die falsche Richtung wegen seiner starken Abhängigkeit von statistischen Techniken geleitet, zum Teil. Chomskys Kommentare passen in eine größere Debatte mit Peter Norvig, um die Rolle der statistischen Methoden in AI zentriert. Der Austausch zwischen den beiden begann mit Kommentaren von Chomsky auf einem Symposium machte am MIT, an die Norvig schrieb eine Antwort.

  0   0
Vorherige Artikel 2011-12 LV Cup
Nächster Artikel Charter Stadt

In Verbindung Stehende Artikel

Kommentare - 0

Keine Kommentare

Fügen Sie einen Kommentar

smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile
Zeichen übrig: 3000

Sehe Auch