Hochschulen wollen KI ab Mitte des Jahres vollständig für alle Aufgaben zu Hause erlauben. Gleichzeitig sollen mündliche Prüfungen wichtiger werden.
Um hier auch mal die Perspektive einer Hochschule einzubringen: Ich kann es nachvollziehen, ist bei uns ähnlich. Ich teile viele der hier geäusserten Bedenken. Aber es ist auch wahr, dass LLMs hier sind, bleiben werden und genutzt werden - ob erlaubt oder nicht. Es ist auch sinnvoller und realitätsnäher Tools zuzulassen, die verfügbar sind als eine künstliche “Prüfungssituation” herzustellen. Ausserdem können wir als Hochschulen einfach nicht rechtsfest nachweisen, ob LLMs verwendet wurden. Also ist es doch besser sie zuzulassen, aber transparent. Unsere Studys müssen auflisten, welche, wie und wo LLMs in der Arbeit verwendet wurden. Ausserdem müssen alle unsere Studys ihre Thesis verteidigen. Ich kann aus Erfahrung sagen, dass übermässige Nutzung von LLMs tendenziell eher ein Nachteil ist. Aber auch das ist eine wichtige Lernerfahrung, denn so lernt man den sinnvollen Umgang damit.
Aaaaaaaaargh… (Sorry, das musste einfach raus)
Ich finde LLMs (ES IST KEINE KI HERRGOTTNOCHMAL) haben durchaus ihre Daseinsberechtigung und können schon ein wirklich nettes Tool sein das ich persönlich auch gerne für die eine oder andere Aufgabe nutze. Das Problem bei den Dingern ist aber: Wenn du selber nicht weißt wie das Ergebnis aussehen sollte, hast du eine recht hohe Chance Kuhmist zu bekommen und weiterzuverarbeiten. Mal als Beispiel: Wenn ich ein LLM nutze um einen von mir geschriebenen Text umformulieren zu lassen, weiß ich ob das Ergebnis sich besser anhört oder auch nicht. Wenn ich ein LLM nutze um mir C Code generieren zu lassen kann ich beurteilen ob das passt oder auch nicht (weil ich 20 Jahre Erfahrung mit der Sprache habe).
Wenn ich mir jetzt aber von einem LLM erklären lassen möchte wie z.B. Finanzmarkttheorie funktioniert könnte ich nicht im Ansatz beurteilen ob das was ich da lese korrekt oder Kuhmist ist, demzufolge halte ich den Einsatz im Studium oder sonstiger Ausbildung für sehr, sehr bedenklich.
Hallo, hast du mich gerufen?
LLMs (ES IST KEINE KI HERRGOTTNOCHMAL)
Danke. Schon das alleine würde 20faches Upvoten rechtfertigen.
Eher das Gegenteil, da die Aussage nicht korrekt ist.
Die Aussage ist absolut korrekt. Der Punkt ist: die Menschheit kann nicht mal sauber definieren was natürliche Intelligenz ist. Was soll der Begriff “künstliche Intelligenz” dann sein? Das ist einfach absolut irreführend. Wovon wir hier eigentlich reden ist eher statistische, datenbasierte Modellierung. Künstliche Intelligenz als Begriff dient nur der Übervorteillung ahnungsloser Investoren. Sonst nichts.
Aber ich glaube der Kampf ist wohl mittlerweile verloren und wir müssen uns damit abfinden das der Begriff so in den Sprachgebrauch übergegangen ist…
Edit: die eigentlich interessantere Frage ist doch, ob das Gehirn mehr/etwas anderes macht als datenbasierte Modellierung oder sind wir nicht auch bloß Produkt unserer Erfahrungen und gesammelten Sinneseindrücke usw.?
LLMs (ES IST KEINE KI HERRGOTTNOCHMAL)
Doch. LLMs gehören zum großen weiten Feld der KI.
OK, technisch gesehen sind es KI im gleichen Sinn wie die Lisp und Prolog Systeme der 80er KI waren. Ich wehre mich nur gegen den Begriff weil es bei den “Zivilisten” zu viele falsche Erwartungen weckt.
Stefan Weber geht bestimmt schon steil. 🙄
Ich fand schon als Student, dass Klausuren komplett veraltet sind und vollständig durch Projektarbeiten und Referate abgelöst werden sollten.
Weder in der wissenschaftlichen Arbeit noch in der Wirtschaft hängt Erfolg je davon ab, stupide gelerntes Wissen abzurufen.
Es geht immer darum, die eigene Arbeit vorzustellen oder ein praktisches Ergebnis zu erreichen (das dann vorgestellt werden muss).Das nötige Wissen eignet man sich dabei nebenher an, weil man es braucht. Nicht weil es abgefragt wird.
Hängt finde ich stark vom Fach ab. Außerdem ist in gewissem Maße eine Wissensgrundlage auch über den eigenen direkten Bereich hinaus wichtig und Lernen auch durchaus eine Kompetenz, die man erlernen muss. Meines Erachtens nach bleibt bei einer Klausurvorbereitung auch in der Regel breiteres Wissen hängen, als bei einem Referat, wo man sich in einem Bereich tief einarbeitet und das restliche Semester nicht zuhört.
Aber das hängt durchaus auch stark vom Fach ab. In naturwissenschaftlichen Grundlagenvorlesungen oder auch später machen Klausuren häufig Sinn, erst Recht, wenn es in der Klausur um Verständnis und nicht um bulemisches Auswendig lernen geht. Im Informatik Bereich zum Beispiel sieht das natürlich oft anders aus.
Das nötige Wissen eignet man sich dabei nebenher an, weil man es braucht. Nicht weil es abgefragt wird.
Da gehe ich komplett mit. Mit ChatGPT und Co. überspringt man aber den Schritt, eigenes Wissen zu erlernen, zu großen Teilen. Zumindest in der Programmierung.
Ich habe leider Kollegen, die komplexe Funktionen schreiben und nur die Hälfte von dem Code überhaupt verstehen. Bei Fehlern stehen sie dann komplett alleine da und ziehen entweder falsche Schlüsse oder resignieren vollständig (wodurch es dann auf meinem Tisch landet). Ich hätte gerne weniger von solchen Menschen um mich herum und nicht mehr davon.
Wenn diese Menschen im 1. Semester bereits eigene einfache Programme schreiben und als Prüfungsleistung mündlich im Detail erklären müssten, wäre das wahrscheinlich weniger ein Problem.
Finde ich gut, wenn das erklären dann auch geübt wird. Selbst wenn wir unsere Stundenten auf Arbeit dazu bringen, Code selbst zu schreiben, statt irgendetwas Gruseliges aus LLMs zu ziehen, und selbst wenn wir mit ihnen den Code auch wirklich durchgehen und Fragen stellen, kannst du sie zehn Minuten später fragen, den Code jemand anderes zu erklären und sie bringen wieder kaum eine Erklärung zusammen. 🫠
Was vor einigen Jahren undenkbar schien, ist heute teils Realität. Zum Beispiel für einen 20-Jährigen, der an der Hochschule Kempten Wirtschaftsingenieurwesen studiert. Bei einer Klausur im Fach Informationsverarbeitung verhalf ihm KI zur Note 1,0. „Ich habe einfach eins zu eins die Sachen gemacht, die mir ChatGPT gesagt hat.“
Der neuen Leitlinie nach wird KI bei allen Leistungen, die zu Hause angefertigt werden, vollständig zugelassen. Da seien sich alle bayerischen Hochschulen einig, sagt Rohrmair. Das betreffe Projektarbeiten, Seminararbeiten, Bachelorarbeiten oder die Vorbereitungen für Vorträge. „Da bringt ein Verbot nichts“, sagt der THA-Präsident. Die Studierenden nützten die KI sowieso.
Boah, ich weiß echt nicht, ob die Begründung “Die machen das ja eh, also erlauben wir es einfach” so eine tolle Sache ist. Ich arbeite als Webdev und sehe an einigen meiner Kollegen leider, wie unfassbar unfähig sie die KI gemacht hat - ohne ChatGPT können sie oft einfachste Aufgaben nicht lösen und die Qualität ihrer Arbeit leidet durch halluzinierende KI’s und enthält viel unnötigem Boilerplate-Code.
Bestes Beispiel: Ich schreibe fast nie Kommentare, weil ich meinen Code so verfasse, dass er möglichst von allen verstanden werden kann - nur in absoluten Ausnahmefällen (wenn ein Prozess schwer ersichtlich ist oder der Kunde massiv dumme Ideen hatte), sind Kommentare nötig. ChatGPT ballert Kommentare links und rechts rein - daran erkenne ich dann auch immer den Code, den bestimmte Kollegen verfasst haben.
// We are doing things here to get a result function doThings() { return $result; }
Das ist absoluter Mist. Wenn wir noch mehr Leute in den Arbeitsmarkt schubsen, die bereits während des Studiums gelernt haben, so zu arbeiten und denken, dass das auch noch völlig okay ist, sehe ich schwarz für die Zukunft.
Hast du jetzt ernsthaft geschrieben, dass du deinen Code nie kommentierst, weil ja eh jeder versteht, was er macht und dass KI blöd ist, weil sie Kommentare hinzufügt? Ich persönlich halte Kommentare im Code für absolut sinnvoll. Die stören nicht, machen nichts kaputt und sind unglaublich hilfreich, wenn man eine fremde Codebasis vorgesetzt bekommt.
Wie unten bereits kommentiert, sind Kommentare nicht hilfreich, die genau das erklären was eine Zeile darunter steht. ChatGPT kommentiert zu viel und bläht Code nur unnötig mit nutzlosen Kommentaren auf.
Ich schreibe Kommentare, um etwas verständlich zu machen, was auf den ersten Blick vielleicht nicht gleich ersichtlich ist. ChatGPT schreibt einen Kommentar, wenn eine Zahl inkrementiert wird - jeder Programmierer (selbst totale Anfänger) erkennen das auch so und benötigen solche Kommentare nicht.
Und ich empfinde es sehr wohl störend, wenn ein Code durchsiebt ist mit Kommentaren. Man muss das Zeug ja schließlich auch wegscrollen oder mental ignorieren.
Kommentare sollten sinnvoll sein, also komplexen Code verständlicher machen. LLMs machen Kommentare im Stil
i++; // increment i
Exakt das meinte ich - das ist übermäßiger Clutter, der den Code nur aufbläht und nicht unbedingt verständlicher macht.
Hängt jetzt aber auch stark von der Komplexität des Programmes, der Programmiersprache und der genauen Umgebung des Programms ab.
Naja, ist jetzt nicht so, dass die Leute bisher vom Studium gekommen sind und gewusst hätten, wie man Software entwickelt. Aber ja, wäre natürlich schön gewesen, wenn das besser statt schlechter wird.
Mir macht Sorge, dass die Leute bis zum Berufseinstieg keinen Eindruck haben, ob der Job überhaupt etwas für sie ist. Viele von den Aufgaben im Studium sind gelöste Probleme, wo dir die KI die Musterlösung geben kann. Im Berufsleben hingegen sind’s schon regelmäßig knackige Puzzles, die man lösen muss, wo die KI auch dumm aus der Wäsche schaut. Wenn du da erst merkst, dass logisches Denken nicht so dein Fall ist, dann wäre das schon ziemlich bescheiden…
Sehe ich auch schwierig. Im Endeffekt ist es ein Selbstbetrug, weil man Arbeiten einreicht, die im Zweifel über der eigenen Kompetenz liegen. Das kann dann halt auch nur so lange gut gehen.
KI als Werkzeug nutzen zu lernen, halte ich dabei nicht für generell falsch, aber man lernt ja in seinem Leben auch erst Kopfrechnen, bevor man irgendwann einen Taschenrechner benutzen darf.
Interessant ob das ein Ausreißer bleibt oder andere Länder nachziehen.