Mein erstes Video von dir und dass du direkt 1h über das Thema gerissen hast und zugleich spannend warst, hat mich überzeugt dir ein Abo zu geben. Mehr, mehr mehr davon!!!
Gutes Video – weil du meintest, das neue Modell hätte Mathe ‚verstanden‘ – die Maschine versteht nix – also sie prozessiert keinen „Sinn“ – man muss ja keine Sprache verstehen um sie korrekt anzuwenden – Maschinen sind immer noch stochastische Papageien, weil sie auf verschiedensten Ebenen Wahrscheinlichkeiten verrechnet…
40:00 Vielleicht hab ich jetzt einen Denkfehler, aber die Grundregeln dieser König Logikaufgabe war doch, dass alle Bürger eine Stimme haben und der König keine. Der erste Schritt der Lösung scheint ja noch logisch zu sein, aber beim zweiten hört es dann auf, weil nur weil jetzt die hälfte der Bürger kein Gold mehr bekommen heisst es doch nicht, dass deren Stimme nicht mehr zählt. Klar kann man jetzt sagen, dass man das mit der Abstimmung auch ändern könnte oder das mit der Verteilung des Geldes ändert, wer darüber demokratisch entscheiden kann, aber das wurde in der Lösung nicht beschrieben und auch die ursprüngliche Aufgabe gibt nicht zwingend her, dass das möglich ist. Und wenn sich eine KI doch akkurat an die Regeln hält, dann könnte es sein, dass es kein Fehler der KI ist sondern ein Fehler in der Aufgabe. Oder sehe ich da was komplett falsch? Bzw warum sollten die anderen sich enthalten, wenn es nur zur weiteren Bereicherung einiger weniger beiträgt, wenn der Reichtum sich auf immer weniger Menschen konzentriert ist das definitiv ja zum Nachteil der anderen.
Da stehen dir die Haare zu Berge, das wird unser Schulsystem, unsere gesamte Gesellschaft kippen. Ich bin Diplom Physiker, kenne mich auch halbwegs aus in Informatik und Chemie. In Mathe bin ich vermutlich besser als die meisten Profs an der Uni..
Ob GPT3.5 oder 4 es macht mich täglich komplett wahnsinnig, wenn es Anweisungen ignoriert, nicht sagt, wenn es was nicht weiß, stattdessen Bullshit labert, falsche Informatuionen liefert obwohl er die richtigen sogar in der Datenbank hatte und und und – die Bezeichnung "KI" ist falsch. Jedes dreijährige hat eine logischere Auffassung.
Nach meinen Erfahrungen sind 95% aller Antworten auf irgendeine Weise unbefriedigend, entweder faktisch falsch, Anweisungen ignoriert, Sachen erfunden, oder bullshit labern – wie man das neue dann also absichtlich noch schlechter macht in einigen Teilen, wie will man sowas noch schlechter machen?
Ich bin gezwungen seit Dezember mit Chat AI's zu arbeiten und könnte täglich meinen Monitor aus dem fenster werfen, weil ich so gefrustet werde, bis ich dann endlich nach einer Stunde eine Antwort meiner ersten Frage hab pber 100 Umwege. Man schreibt 5 Promts in Deutsch, auf ein Mal antwortet GPT in Englisch – was soll sowas?
Wenn man für eine winzige Funktion in VBA Code 4 Stunden schreiben muss, bis der angebotene Code endlich funktioniert ^^. Ja, ohne Chat KI gehts leider nicht mehr bei mir aber Spaß macht es NICHT!
Auch wenn mir das keiner glauben mag, ich hatte ein einziges Mal im Frühling, nach vielen Stunden falschen Code, dass GPT mich um mehr Zeit bad – nach einer Stunde sprach ich ihn an und DIESER CODE hatte dann funktioniert! Ich weiß nicht, wieso es nur dieses einzige Mal war – ich würde mir wünschen die KI nimmt sich jedesmal mehr Zeit, dafür eine richtige Antwort. Spart Strom, Server, Nerven! Wenn man 5 Stunden lang schreibt und nur Bullshit kommt, ist das viel teurer und verschwenderischer als ein Mal lange rechnen und dann stimmt das Ergebnis.
Hmm, irgendwie bin ich mit der Loesung bei dem Kartenraetsel nicht so ganz einverstanden. Und zwar:
Wenn eine Karte auf einer Seite einen Kreis hat, dann hat sie auf der anderen Seite die Farbe Gelb.
So wie diese Bedingung formuliert ist, ist es unerheblich auf welcher Seite die Karte Gelb ist oder einen Kreis hat. Folglich muss auch die gelbe Karte ueberprueft werden oder die Regel muss umformuliert werden in:
Wenn eine Karte auf >der sichbaren< Seite einen Kreis hat, dann hat sie auf der anderen Seite die Farbe Gelb.
mal ne blöde Frage zu den Karten vom Anfang: ist denn gegeben, dass immer auf einer seite eine schwarze Form (Kreis, Refchteck,etc.) ist, und auf der anderen eine Farbe? Weil wenn dies nicht so wäre, müsste dann nicht auch das Rechteck umgedreht werden, damit da nicht evtl. ein Kreis drunter ist, weil dann hätte eben dieser Kreis eben keine gelbe Rückseite, sondern eine Form als Rückseite.
Sehr tolles Video. Ich habe durch Zufall beim O-Modell herausgefunden, dass sich dieses Modell mit dieser Aufgabe sehr schwergetan hat. Auch nach 2 Nachbesserungen kam es nicht auf das korrekte Ergebnis: Die Aufgabe: Verwenden Sie jede der neun Ziffern einmal, und nur einmal, und bilden Sie eine Menge von drei Primzahlen, die die kleinstmögliche Summe haben. Zum Beispiel ergibt die Menge 941, 827 und 653 die Summe 2.421, aber das ist bei weitem nicht minimal. Korrekt ist: 149 + 263 + 587=999, Erste Lösung: 269, 359 und 1487, was insgesamt 2115 ergibt.; Zweite Lösung: 149, 263 und 857, was insgesamt 1269 ergibt.; Dritte Lösung: 149, 283 und 761, was die Summe 1193 ergibt.
Großes Danke für diese umfängliche Erläuterung zu dem ganzen Thema insbesondere zu GPT-o1. Mich hat es jedoch stark gewundert, dass die meisten Modelle Schwierigkeiten mit dem "Ausdauerlauf" hatten. Recht einfach hatte ich die Lösung zusammen und bin kein Vorzeigelogiker. Bei der König-Aufgabe, kann ich mir vorstellen, dass entweder "Kreativität" gefehlt hat oder das Prinzip mit den VorschlägEN nicht erfasst wurde. Und deine Vermutung am Ende des Videos kann ich bestätigen, OpenAI baut jetzt stark das Team zur Erforschung von (Multi-)Agenten aus.
Kann das O1 elliptische Kurven mit Charakteristik 2 und Charakteristik > 2? Zumindest 4o war darin mega schlecht. Ich frage deswegen, weil es mich dann doch gewundert hat, warum es so schlecht darin ist. Einfache elliptische Kurven-Kryptografie, wie ich sie in meinem Bachelor hatte, ist kein mega schwieriges Konzept.
Ich bin nicht so in dem thema drinne aber gibt es mittlerweile eigentlich klare richtlinien wann man ai nutzen darf. Das muss ja der reinste horror für jeden datenschutzbeauftragten sein. Und ist es überhaupt möglich dafür lösungen zu entwickeln
Ich bin bei kis absolut nicht drinen hab mich da mit zu wenig beschäftigt. Wenn ich das jetzt also richtig verstehe sitzt da eine ki die berechnet was man in die ki eintippen muss um das beste ergebnis zu bekommen? Oder hab ich das komplett missverstanden. Oder überprüft die ki sich nur selbst also eher vergleichbar mit closed loop systemen(ich kenn das nur aus der elektronik branche)
Für das Königsproblem ist mir noch eine weitere Lösung für den König eingefallen mit welcher 66 Goldmünzen möglich sind.
Der König nutzt das "Lohncasino". Er nimmt zu jedem Vorschlag 3 Bürger zur Seite. Einer davon verliert seinen Lohn und die anderen Beiden würfeln mit dem König um dessen Anteil, somit haben der König und die beiden Glücklichen je eine 1/3 Chance ihren Lohn zu erhöhen.
Der Lohnverlierende stimmt gegen den Vorschlag, die beiden potentiellen Gewinner dafür, da sie nur gewinnen können und nichts zu verlieren haben. Somit kann der König den Vorschlag jedes mal durchbringen.
Das Verfahren wird wiederholt bis alle Lohnanteile beim König sind. Das Königs-haus gewinnt immer 😉
Chat GPT ist zwar etwas anderes als LLAMA aber trotzdem sind Agents krass, sowie "long term memory" und "personalizing" a Model. Ich probiere "personalisation" gerade mit Ollama in der Web UI aus, dort ist alles noch experimentell aber es wird kommen und das wird richtig geil. Bild Generation kommt auch in ollama web ui. Meine Anwendung liegt halt wirklich nicht in der Coding Maths Produktivität oder sonst was, sondern ein persönlicher, privater Assistent der meine Daten im Rechner abrufen kann, Dinge kontrolliert, das System checken soll, im Netz sucht, Dinge downloaded, mich erinnert, und Daten abrucht die ich brauche, sich selbst aktualisiert etc.pp. noch nicht ganz Jarvis aber in die Richtung soll es gehen.
Zu dem Königsrätsel: Der König hat 63 Goldstücke und ein Bürger hat 3 Goldstücke, was heißt der König könnte noch zwei Bürger ins Boot holen und sagen das er und die zwei je 1 Goldstück mehr bekommen, was dazu führt das der König am Ende 64 Goldstücke bekommt und zwei Bürger je eines haben!
Wenn wir ChtatGPT O1 die Antwort auf die "Frage nach dem Sinn des Leben, des Universums und des ganzen Rests" stellen würden und ihm 7,5 Millionen Jahre Zeit zum nachdenken gäben dann müssten wir 180.000.000.000$ an Lizenzkosten berappen.
So schwer fand ich das Königsrätsel jetzt nicht. Sobald man darauf gekommen ist, dass man ein Ungleichgewicht erlangen muss, indem der König seinen eigenen Lohn aufgibt, ist der Rest ziemlich einfach. Momentan hänge ich an diesem verdammten Schachbrett mit 64 Münzen und einem zu findenden Schlüssel, das 3b1b zusammen mit Matt Parker vorgestellt hat. Das bereitet mir deutlich mehr Kopfzerbrechen. Probier das mal mit O1.
"Experten in ihrem eigenen Fachgebiet geschlagen" ist aber auch sehr populistisch formuliert. Die Chemie-Fragen (mein "Fachgebiet") sind z.B. sehr breit. Niemand würde erwarten, dass ein Doktorand (und auch kein Professor) in der anorganischen Chemie derartige (teilweise) detailfragen zu organischer Katalyse beantworten kann. Wenn ich der O1 Fragen wirklich zu meinem Fachgebiet (also meiner Spezialisierung) stelle, dann ist es bisher meist entweder gescheitert oder hat "standard-lösungen" vorgeschlagen, die natürlich alle schon durchprobiert wurden und gescheitert sind. Meist waren die Vorschläge zum Vorgehen ungefähr auf dem Niveau, das ich von Bachelor-Studenten erwartet hätte. Insgesamt ist der komplette GPQA (Diamond) Benchmark stark biased, was man auch an der Verteilung der Themen sieht. Zusätzlich sind es eben Multiple-Choice fragen. Wenn man in das Paper zu dem Benchmark schaut, wird auch anerkannt, dass sowohl der Datensatz, als auch die "Experts" wahrscheinlich nicht repräsentativ sind.
Hat nichts mit deinem klasse Video zu tun aber gehört bestimmt auch zu deinem Kanal und ev gibt es auch Lösungen die ich nicht kenne. Vielleicht kann mir auch ein Community-Mitglied ein Tipp geben.
Thema: Digitales Erbe erstellen und Verwalten für den Fall der Fälle.
Ich habe o1 gebeten, mal ein Turnierprogramm zu schreiben, welches die Paarungen der Gegner nach dem Schweizer-System herausgeben und die Ergebnisse speichern soll. Für alle Runden, die man vorgeben kann. Das Schweizer System ist easy: Punktgleiche gegeneinander. Nicht zweimal gegen denselben Gegner. Das kriegt o1 nicht hin, auch nicht GPT 4. Und Gemini – da brauchen wir erst gar nicht mit anfangen. Ich frage mich, wie o1 richtige Software-Projekte schaffen soll. Probier(t)s mal aus.
Ich hätte jetzt als erstes den Kreis und die gelbe Karte umgedreht, da sie beide richtig sein können, wenn man die Karten physisch betrachtet.
Warum man die rote umdrehen sollte, wenn sie sowieso falsch ist, erschließt sich mir nicht.
Mit dieser Herangehensweise dass die gelbe falsch/egal sein könnte, bräuchte man die Rote meiner Meinung nach auch nicht, sondern ausschließlich den Kreis.. 🤔🧐
Das einzige was ich mir bei der roten vorstellen könnte, wäre dass sie bei jedem umdrehen eine neue Rückseite hätte(halt eine virtuelle Karte), dann müsste man alle so oft umdrehen bis es passt 😀
viele pfeifen von euch machen dumme fresse, wenn ich alles kleinschreibe. wehe auch nur eine buchsstabe falsch, wird rumgemozt mit "nö, hab i net verstanda". Wenn der Blödheitsgrad eines durchschnittsmenschen schon so hoch ist, im umgekehrtem schluss der intelligenzgrad so klein, dann ist in diesem vergleich, mit übelst niedriger basis, die Künstliche Imitation monströs überlegen. Fazit: ist jetzt dumme fresse machen nicht mehr erlaubt? Nö , ist nach wie vor erlaubt, nur nach wie vor bringt es dich nicht weiter.
Dass immer wieder jemand mit Problemen testet, die fast sicher in den Trainingsdaten waren… Wenn ich mit den weit verbreiteten Vorbereitungsmaterialien für U.S. standardisierte Tests teste bekommen viele Produkte auch Mathematik oder Physik hin. Wenn ich aber eine neue Klausur schreibe und teste bekomme ich nach wie vor was ich erwarte: gut klingende Fehler.
39:11 + … die Lösung ist falsch. Es gab bereits eine Revolution. Wenn du 33 Stimmen kaufst und der Rest ist am hungern, dann gibt es die nächste Revolution und wahrscheinlich einen neuen König.
Rätsel: Was ist geschmeidig und fein, am Hinterteil geht es rein, es ist bei weitem nicht klein, wird auch durch Streicheleinheiten oder Reibung nicht steif. Was kann das sein? Lösung: Eichhörnchenschweif 😂 ChatGPT 4O konnte das nicht lösen 😂 zugegeben, dass Wortspiel ist sehr doppelseitig und fast kein Mensch, kommt direkt drauf 😅
Mein erstes Video von dir und dass du direkt 1h über das Thema gerissen hast und zugleich spannend warst, hat mich überzeugt dir ein Abo zu geben. Mehr, mehr mehr davon!!!
Unser Wissen darf mit uns nicht untergehen! Ein toter Planet aber mit vollem Bewusstsein!!!
Gutes Video – weil du meintest, das neue Modell hätte Mathe ‚verstanden‘ – die Maschine versteht nix – also sie prozessiert keinen „Sinn“ – man muss ja keine Sprache verstehen um sie korrekt anzuwenden – Maschinen sind immer noch stochastische Papageien, weil sie auf verschiedensten Ebenen Wahrscheinlichkeiten verrechnet…
Die linke Karte hast du gar nicht kommentiert oder? Wieso muss die nicht geprüfte werden?
Wie lange können wir das 01 Modell noch nutzen bevor es 2000$ sein soll?
40:00 Vielleicht hab ich jetzt einen Denkfehler, aber die Grundregeln dieser König Logikaufgabe war doch, dass alle Bürger eine Stimme haben und der König keine. Der erste Schritt der Lösung scheint ja noch logisch zu sein, aber beim zweiten hört es dann auf, weil nur weil jetzt die hälfte der Bürger kein Gold mehr bekommen heisst es doch nicht, dass deren Stimme nicht mehr zählt. Klar kann man jetzt sagen, dass man das mit der Abstimmung auch ändern könnte oder das mit der Verteilung des Geldes ändert, wer darüber demokratisch entscheiden kann, aber das wurde in der Lösung nicht beschrieben und auch die ursprüngliche Aufgabe gibt nicht zwingend her, dass das möglich ist. Und wenn sich eine KI doch akkurat an die Regeln hält, dann könnte es sein, dass es kein Fehler der KI ist sondern ein Fehler in der Aufgabe. Oder sehe ich da was komplett falsch? Bzw warum sollten die anderen sich enthalten, wenn es nur zur weiteren Bereicherung einiger weniger beiträgt, wenn der Reichtum sich auf immer weniger Menschen konzentriert ist das definitiv ja zum Nachteil der anderen.
34:07 Hey, hast du eben auch ‚zumindest‘ gehört? Dachte, das wäre auf YouTube komplett von ‚zumindestens‘ abgelöst worden. 😂
Hey, magst Du was zur offenbar gelungenen Deanonymisierung des TOR-Netzwerks mittels Timing Analysis durch deutsche Behörden machen?
Da stehen dir die Haare zu Berge,
das wird unser Schulsystem, unsere gesamte Gesellschaft kippen.
Ich bin Diplom Physiker, kenne mich auch halbwegs aus in Informatik und Chemie.
In Mathe bin ich vermutlich besser als die meisten Profs an der Uni..
Ob GPT3.5 oder 4 es macht mich täglich komplett wahnsinnig, wenn es Anweisungen ignoriert, nicht sagt, wenn es was nicht weiß, stattdessen Bullshit labert, falsche Informatuionen liefert obwohl er die richtigen sogar in der Datenbank hatte und und und – die Bezeichnung "KI" ist falsch. Jedes dreijährige hat eine logischere Auffassung.
Nach meinen Erfahrungen sind 95% aller Antworten auf irgendeine Weise unbefriedigend, entweder faktisch falsch, Anweisungen ignoriert, Sachen erfunden, oder bullshit labern – wie man das neue dann also absichtlich noch schlechter macht in einigen Teilen, wie will man sowas noch schlechter machen?
Ich bin gezwungen seit Dezember mit Chat AI's zu arbeiten und könnte täglich meinen Monitor aus dem fenster werfen, weil ich so gefrustet werde, bis ich dann endlich nach einer Stunde eine Antwort meiner ersten Frage hab pber 100 Umwege. Man schreibt 5 Promts in Deutsch, auf ein Mal antwortet GPT in Englisch – was soll sowas?
Wenn man für eine winzige Funktion in VBA Code 4 Stunden schreiben muss, bis der angebotene Code endlich funktioniert ^^. Ja, ohne Chat KI gehts leider nicht mehr bei mir aber Spaß macht es NICHT!
Auch wenn mir das keiner glauben mag, ich hatte ein einziges Mal im Frühling, nach vielen Stunden falschen Code, dass GPT mich um mehr Zeit bad – nach einer Stunde sprach ich ihn an und DIESER CODE hatte dann funktioniert!
Ich weiß nicht, wieso es nur dieses einzige Mal war – ich würde mir wünschen die KI nimmt sich jedesmal mehr Zeit, dafür eine richtige Antwort. Spart Strom, Server, Nerven! Wenn man 5 Stunden lang schreibt und nur Bullshit kommt, ist das viel teurer und verschwenderischer als ein Mal lange rechnen und dann stimmt das Ergebnis.
Dieser Kommentar hat den Algorithmus gepusht!
Und Danke
wie übergibst du denn große Repos an ChatGPT?
Hmm, irgendwie bin ich mit der Loesung bei dem Kartenraetsel nicht so ganz einverstanden. Und zwar:
Wenn eine Karte auf einer Seite einen Kreis hat, dann hat sie auf der anderen Seite die Farbe Gelb.
So wie diese Bedingung formuliert ist, ist es unerheblich auf welcher Seite die Karte Gelb ist oder einen Kreis hat. Folglich muss auch die gelbe Karte ueberprueft werden oder die Regel muss umformuliert werden in:
Wenn eine Karte auf >der sichbaren< Seite einen Kreis hat, dann hat sie auf der anderen Seite die Farbe Gelb.
Kucks du: 9:46
Ps.: Mein Gedanke dazu wurde mir von GPT4o gerade bestaetigt und er/sie/es hat sich fuer seine falsche Antwort entschuldigt 😛
mal ne blöde Frage zu den Karten vom Anfang: ist denn gegeben, dass immer auf einer seite eine schwarze Form (Kreis, Refchteck,etc.) ist, und auf der anderen eine Farbe?
Weil wenn dies nicht so wäre, müsste dann nicht auch das Rechteck umgedreht werden, damit da nicht evtl. ein Kreis drunter ist, weil dann hätte eben dieser Kreis eben keine gelbe Rückseite, sondern eine Form als Rückseite.
Sehr tolles Video. Ich habe durch Zufall beim O-Modell herausgefunden, dass sich dieses Modell mit dieser Aufgabe sehr schwergetan hat. Auch nach 2 Nachbesserungen kam es nicht auf das korrekte Ergebnis: Die Aufgabe: Verwenden Sie jede der neun Ziffern einmal, und nur einmal, und bilden Sie eine Menge von drei Primzahlen, die die kleinstmögliche Summe haben. Zum Beispiel ergibt die Menge 941, 827 und 653 die Summe 2.421, aber das ist bei weitem nicht minimal. Korrekt ist: 149 + 263 + 587=999, Erste Lösung: 269, 359 und 1487, was insgesamt 2115 ergibt.; Zweite Lösung: 149, 263 und 857, was insgesamt 1269 ergibt.; Dritte Lösung: 149, 283 und 761, was die Summe 1193 ergibt.
algorithm.boost(morpheus);
Großes Danke für diese umfängliche Erläuterung zu dem ganzen Thema insbesondere zu GPT-o1. Mich hat es jedoch stark gewundert, dass die meisten Modelle Schwierigkeiten mit dem "Ausdauerlauf" hatten. Recht einfach hatte ich die Lösung zusammen und bin kein Vorzeigelogiker. Bei der König-Aufgabe, kann ich mir vorstellen, dass entweder "Kreativität" gefehlt hat oder das Prinzip mit den VorschlägEN nicht erfasst wurde. Und deine Vermutung am Ende des Videos kann ich bestätigen, OpenAI baut jetzt stark das Team zur Erforschung von (Multi-)Agenten aus.
Kann das O1 elliptische Kurven mit Charakteristik 2 und Charakteristik > 2? Zumindest 4o war darin mega schlecht. Ich frage deswegen, weil es mich dann doch gewundert hat, warum es so schlecht darin ist. Einfache elliptische Kurven-Kryptografie, wie ich sie in meinem Bachelor hatte, ist kein mega schwieriges Konzept.
Ich bin nicht so in dem thema drinne aber gibt es mittlerweile eigentlich klare richtlinien wann man ai nutzen darf. Das muss ja der reinste horror für jeden datenschutzbeauftragten sein.
Und ist es überhaupt möglich dafür lösungen zu entwickeln
Ich bin raus hab beim ersten logik test verkackt.😢
Ich bin bei kis absolut nicht drinen hab mich da mit zu wenig beschäftigt. Wenn ich das jetzt also richtig verstehe sitzt da eine ki die berechnet was man in die ki eintippen muss um das beste ergebnis zu bekommen? Oder hab ich das komplett missverstanden. Oder überprüft die ki sich nur selbst also eher vergleichbar mit closed loop systemen(ich kenn das nur aus der elektronik branche)
Für das Königsproblem ist mir noch eine weitere Lösung für den König eingefallen mit welcher 66 Goldmünzen möglich sind.
Der König nutzt das "Lohncasino". Er nimmt zu jedem Vorschlag 3 Bürger zur Seite. Einer davon verliert seinen Lohn und die anderen Beiden würfeln mit dem König um dessen Anteil, somit haben der König und die beiden Glücklichen je eine 1/3 Chance ihren Lohn zu erhöhen.
Der Lohnverlierende stimmt gegen den Vorschlag, die beiden potentiellen Gewinner dafür, da sie nur gewinnen können und nichts zu verlieren haben. Somit kann der König den Vorschlag jedes mal durchbringen.
Das Verfahren wird wiederholt bis alle Lohnanteile beim König sind. Das Königs-haus gewinnt immer 😉
Echt spannend 😮
Also bin ich meinen Job bald los?
Chat GPT ist zwar etwas anderes als LLAMA aber trotzdem sind Agents krass, sowie "long term memory" und "personalizing" a Model. Ich probiere "personalisation" gerade mit Ollama in der Web UI aus, dort ist alles noch experimentell aber es wird kommen und das wird richtig geil. Bild Generation kommt auch in ollama web ui. Meine Anwendung liegt halt wirklich nicht in der Coding Maths Produktivität oder sonst was, sondern ein persönlicher, privater Assistent der meine Daten im Rechner abrufen kann, Dinge kontrolliert, das System checken soll, im Netz sucht, Dinge downloaded, mich erinnert, und Daten abrucht die ich brauche, sich selbst aktualisiert etc.pp. noch nicht ganz Jarvis aber in die Richtung soll es gehen.
Danke für dieses ausführliche Video zu dem Thema!
Zu dem Königsrätsel:
Der König hat 63 Goldstücke und ein Bürger hat 3 Goldstücke, was heißt der König könnte noch zwei Bürger ins Boot holen und sagen das er und die zwei je 1 Goldstück mehr bekommen, was dazu führt das der König am Ende 64 Goldstücke bekommt und zwei Bürger je eines haben!
Wenn wir ChtatGPT O1 die Antwort auf die "Frage nach dem Sinn des Leben, des Universums und des ganzen Rests" stellen würden und ihm 7,5 Millionen Jahre Zeit zum nachdenken gäben dann müssten wir 180.000.000.000$ an Lizenzkosten berappen.
So schwer fand ich das Königsrätsel jetzt nicht.
Sobald man darauf gekommen ist, dass man ein Ungleichgewicht erlangen muss, indem der König seinen eigenen Lohn aufgibt, ist der Rest ziemlich einfach.
Momentan hänge ich an diesem verdammten Schachbrett mit 64 Münzen und einem zu findenden Schlüssel, das 3b1b zusammen mit Matt Parker vorgestellt hat.
Das bereitet mir deutlich mehr Kopfzerbrechen.
Probier das mal mit O1.
Zu erst hab ich gedacht, oh Gott, eine Stunde, aber Wahnsinn, wie du diese Stunde ausgefüllt hast, danke und viel Erfolg weiterhin!
"Experten in ihrem eigenen Fachgebiet geschlagen" ist aber auch sehr populistisch formuliert. Die Chemie-Fragen (mein "Fachgebiet") sind z.B. sehr breit. Niemand würde erwarten, dass ein Doktorand (und auch kein Professor) in der anorganischen Chemie derartige (teilweise) detailfragen zu organischer Katalyse beantworten kann. Wenn ich der O1 Fragen wirklich zu meinem Fachgebiet (also meiner Spezialisierung) stelle, dann ist es bisher meist entweder gescheitert oder hat "standard-lösungen" vorgeschlagen, die natürlich alle schon durchprobiert wurden und gescheitert sind. Meist waren die Vorschläge zum Vorgehen ungefähr auf dem Niveau, das ich von Bachelor-Studenten erwartet hätte.
Insgesamt ist der komplette GPQA (Diamond) Benchmark stark biased, was man auch an der Verteilung der Themen sieht. Zusätzlich sind es eben Multiple-Choice fragen. Wenn man in das Paper zu dem Benchmark schaut, wird auch anerkannt, dass sowohl der Datensatz, als auch die "Experts" wahrscheinlich nicht repräsentativ sind.
Hat nichts mit deinem klasse Video zu tun aber gehört bestimmt auch zu deinem Kanal und ev gibt es auch Lösungen die ich nicht kenne. Vielleicht kann mir auch ein Community-Mitglied ein Tipp geben.
Thema:
Digitales Erbe erstellen und Verwalten für den Fall der Fälle.
MORPHEUS ABI, WOHER KOMMEN DIE fast 140k ABOS?! ich hab das gar nicht realisiert 😀 (bin seit ca. 15k dabei)
Hey. Ist es denn möglich PDF-Dateien hochzuladen, diese 1 zu 1 übersetzen zu lassen und die identische PDF samt Layout zuruckzuerhalten?
Ich habe einige PDFs die ich ins englische übersetzen möchte. Das am besten so spezifisch wie möglich 😊
Liebe Grüße
Das heißt, dass reiche Leute und Unternehmen mit Geld sich zukünftig bessere KIs als arme leisten können.
Cool, dass die neue Version den Rechenweg darstellt 😎👏🏻
Ich habe o1 gebeten, mal ein Turnierprogramm zu schreiben, welches die Paarungen der Gegner nach dem Schweizer-System herausgeben und die Ergebnisse speichern soll. Für alle Runden, die man vorgeben kann. Das Schweizer System ist easy: Punktgleiche gegeneinander. Nicht zweimal gegen denselben Gegner. Das kriegt o1 nicht hin, auch nicht GPT 4. Und Gemini – da brauchen wir erst gar nicht mit anfangen. Ich frage mich, wie o1 richtige Software-Projekte schaffen soll. Probier(t)s mal aus.
Ich hätte jetzt als erstes den Kreis und die gelbe Karte umgedreht, da sie beide richtig sein können, wenn man die Karten physisch betrachtet.
Warum man die rote umdrehen sollte, wenn sie sowieso falsch ist, erschließt sich mir nicht.
Mit dieser Herangehensweise dass die gelbe falsch/egal sein könnte, bräuchte man die Rote meiner Meinung nach auch nicht, sondern ausschließlich den Kreis.. 🤔🧐
Das einzige was ich mir bei der roten vorstellen könnte, wäre dass sie bei jedem umdrehen eine neue Rückseite hätte(halt eine virtuelle Karte), dann müsste man alle so oft umdrehen bis es passt 😀
Warum hast du son Glitzer in deinem Bart?
viele pfeifen von euch machen dumme fresse, wenn ich alles kleinschreibe. wehe auch nur eine buchsstabe falsch, wird rumgemozt mit "nö, hab i net verstanda". Wenn der Blödheitsgrad eines durchschnittsmenschen schon so hoch ist, im umgekehrtem schluss der intelligenzgrad so klein, dann ist in diesem vergleich, mit übelst niedriger basis, die Künstliche Imitation monströs überlegen. Fazit: ist jetzt dumme fresse machen nicht mehr erlaubt? Nö , ist nach wie vor erlaubt, nur nach wie vor bringt es dich nicht weiter.
Wie kann der König die Wähler reduzieren, wenn er die Macht dazu nicht hat?
Dass immer wieder jemand mit Problemen testet, die fast sicher in den Trainingsdaten waren… Wenn ich mit den weit verbreiteten Vorbereitungsmaterialien für U.S. standardisierte Tests teste bekommen viele Produkte auch Mathematik oder Physik hin. Wenn ich aber eine neue Klausur schreibe und teste bekomme ich nach wie vor was ich erwarte: gut klingende Fehler.
39:11 + … die Lösung ist falsch. Es gab bereits eine Revolution. Wenn du 33 Stimmen kaufst und der Rest ist am hungern, dann gibt es die nächste Revolution und wahrscheinlich einen neuen König.
Man müsste doch eigentlich auch überprüfen ob das Quadrat nicht einen Kreis hat oder nicht?
Rätsel: Was ist geschmeidig und fein, am Hinterteil geht es rein, es ist bei weitem nicht klein, wird auch durch Streicheleinheiten oder Reibung nicht steif. Was kann das sein? Lösung: Eichhörnchenschweif 😂 ChatGPT 4O konnte das nicht lösen 😂 zugegeben, dass Wortspiel ist sehr doppelseitig und fast kein Mensch, kommt direkt drauf 😅
im 49 percentile ist man aber nicht um platz 490, sondern um platz 510 😉
Comments are closed.