this post was submitted on 19 Jun 2023
178 points (96.4% liked)
Deutschland
6710 readers
2 users here now
Sammelbecken für deutsche Kartoffeln und ihre Geschichten über Deutschland.
Nicht zu verwechseln mit !dach und !chad.
Regeln
- Seid nett zueinander.
- Schreibt hier Beiträge, die ganz Deutschland betreffen, nicht nur einen kleinen Teil
- Sinnlose Provokationen ohne Inhalt werden gelöscht
- zusätzlich: alle Regeln, die ihr auf Feddit.de in der Sidebar lesen könnt.
Bundesländer:
founded 3 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Ja, das fällt mir sogar als Hobbyprogrammierer auf. Jeder schlägt für alles KI vor, auch wenn es überhaupt keinen Sinn macht. Keine Sau braucht KI im Auto, das Ding muss zuverlässig und deterministisch funktionieren.
Ich persönlich warte auf genau eine einzige Anwendung von KI in meinem Alltag: Home Assistant mit meinen eigenen Mikrofonen, TTS und Sprachsynthese, API-Anbindung an ChatGPT-4. Der Witz dabei muss natürlich sein, dass die KI die Bezeichnungen meiner Geräte und Räume kennt und versteht.
Ist sicherlich heute schon machbar, habe aber aktuell keine Zeit mich da reinzufuchsen.
"KI" ist vielleicht einfach die neue Buzzword-Sau die durchs Dorf getrieben wird, weil "Blockchain" inzwischen langweilig geworden war.
Im Gegensatz zu Blockchain ist KI aber gekommen um zu bleiben. Ist ja nicht umsonst Thema in der Informatik seit es die Informatik gibt. Die aktuelle Frage ist nur, welche LLM-Anwendungen tatsächlich sinnvoll sind und in der Praxis Vorteile bringen.
Die Technologie Blockchain ist auch gekommen um zu bleiben, nur eben 99% der derzeitigen Blockchain-Projekte nicht.
LLMs tatsächlich für Sprache einsetzen ist schon cool. Also zusammenfassen, umformulieren, vlt sogar passenden Puffertext erzeugen.
Auch Modelle wie Stable Diffusion sind super, wenn man irgendwelche unverfänglichen Aufhängerbilder o.ä. braucht.
CoPilot funktioniert als Assistent beim Programmieren auch schon erschreckend gut. Spart stellenweise eine Menge Tipparbeit.
Sind halt alles Werkzeuge. Eigenständig sinnvoll ist davon nichts.
Stimmt zwar an sich schon, aber im Grunde ändert sich die Bedeutung von "KI" alle paar Jahre, bzw. wofür es als Buzzword wirklich steht.
In den 50ern war die böse KI, die Leuten ihre Arbeitsplätze weggenommen hat, das, was wir heute als "Taschenrechner" bezeichnen würden (nur, dass die damals in keine Tasche gepasst hätten).
Und vor ein paar Jahren war mit "KI" i.d.R. ein Machine Learning Modell gemeint. Jetzt ist eben KI = LLM, und in ein paar Jahren hat "KI" dann vielleicht Sensoren oder ein Gesicht.
Das ist denke ich so nicht ganz richtig.
In den 50ern standen such-basierte ansätze im vordergrund die automatisiert Spiele wie Schach spielen, mathematische Theoreme beweisen, oder allgemein logische schlüsse ziehen konnten. Mein taschenrechner kann das nicht. (Neuronale netze gab es auch schon, wenn auch nicht ganz in der heutigen form.)
Als sich das als zu unflexibel für reale anwendungsfälle erwies wurde im bereich probabilistische systeme gearbeitet, welche mit unsicherheit umgehen konnten. Aber auch hier kannte man die regeln nach denen das system arbeitet noch.
In den 90ern, als es durch mehr EDV auch größere datensätze gab, haben sich in eineigen anwendungsfällen machine learning systeme durchgesetzt, welche die regeln anhand von daten selbst lernen.
Seit den 10ern hat sich gezeigt, dass sich machine learning ansätze, insbesondere neuronale netze, mit mehr daten und rechenleistung scheinbar beliebig skallieren lassen. Und das ist im wesentlichen das, was seit 11 jahren passiert.
LLM sind nur skalierte machine learning modelle für sprache. Die grundlagen kommen aber aus den 50/60ern.
Dagegen kann ich nicht wirklich argumentieren, weil mein Kommentar im Kern den Inhalt dieses (gut recherchierten) Vortrags widerspiegelt: https://tube.bawü.social/w/1c464828-a83e-4ff9-b264-197ba7968204
Ich könnte mir aber vorstellen, dass es einfach einen Unterschied zwischen Forschungsthemen und öffentlicher Wahrnehmung gab. Also vielleicht war es tatsächlich oft die selbe, zu Grunde liegende Technologie, die aber immer wieder zur Lösung neuer Probleme eingesetzt werden konnte.
Ja, das stimmt wohl.
Das ist doch bei jeder Technologie, die neuartig ist. Es werden jegliche Lösungen heraufbeschworen ohne genauer über das Problem nachzudenken.
Ich stecke in der KI-Materie nicht super tief drin, aber verstehe es hinreichend. Da nervt es schon, wenn man es mit Leuten zu tun hat, die nur in LinkedIn-Hashtags denken und die Sinnhaftigkeit der Technologie nicht verstehen.
Schau dir Mal Home Assistant an, das kann schon die Grundsätze von Sprachassistenz. (Falls du genau diese Software schon gemeint hast, dann hoffen wir Mal auf eine gute Weiterentwicklung davon)