Derzeit entwickelt sich in unserer Branche ein richtiger KI-Sprech. Das verkürzt einerseits die Kommunikation, schließt aber auch Leute aus, die nichts mit Wörtern wie Debugging, Playground oder Token anfangen können. Wir haben diverse KIs gebeten, uns Definitionen zu redaktionell ausgewählten Begriffen zu liefern – die Ergebnisse kann man hier lesen oder unten herunterladen.
Alignment
Alignment bezieht sich in der KI auf die Fähigkeit eines Systems, Ziele und Handlungen mit den Zielen und Werten der menschlichen Gesellschaft in Einklang zu bringen. Es ist wichtig, dass KI-Systeme so ausgerichtet sind, dass sie im Einklang mit ethischen und moralischen Grundsätzen agieren. Ein gutes Alignment gewährleistet, dass KI-Systeme die beabsichtigten Ergebnisse erzielen, ohne unerwünschte Nebenwirkungen zu verursachen. Forscher und Entwickler arbeiten daran, Mechanismen zu schaffen, die ein besseres Alignment von KI-Systemen mit den menschlichen Werten sicherstellen. Ein mangelhaftes Alignment kann zu unerwünschtem Verhalten von KI-Systemen führen, was potenziell negative Auswirkungen auf die Gesellschaft hat. Es ist daher von großer Bedeutung, dass Alignment als zentrales Thema in der Entwicklung und Anwendung von KI-Technologien betrachtet wird.
Apps
Apps sind Anwendungen, die Künstliche Intelligenz nutzen, um bestimmte Aufgaben auszuführen. Diese Apps können beispielsweise Spracherkennung, Bilderkennung oder Empfehlungssysteme enthalten. KI-Apps können auf verschiedenen Plattformen wie Smartphones, Tablets oder Computern laufen und werden in verschiedenen Branchen wie Gesundheitswesen, Finanzen und Einzelhandel eingesetzt. Bekannte Beispiele für KI-Apps sind Siri, Alexa oder der Google Assistant.
Bias
Bias (Verzerrung) bezieht sich auf eine systematische Abweichung in den Ergebnissen oder Entscheidungen, die von KI-Systemen getroffen werden. Diese Verzerrungen können durch ungleiche Gewichtung bestimmter Daten oder Vorurteile entstehen und zu diskriminierenden Ergebnissen führen. Ein Bias kann sowohl in den Trainingsdaten als auch im KI-Algorithmus selbst vorhanden sein und muss aktiv angegangen werden, um faire und ethische KI-Anwendungen zu gewährleisten. Das Identifizieren und Reduzieren von Bias ist ein wichtiger Schrittbei der Entwicklung verantwortungsvoller KI-Systeme.
Chatbot
Ein Chatbot ist ein Computerprogramm, das mithilfe von Künstlicher Intelligenz oder vordefinierten Regeln automatisch auf Nutzeranfragen antwortet. Chatbots können in verschiedenen Anwendungen eingesetzt werden, wie zum Beispiel im Kundenservice, Marketing oder als persönlicher Assistent. Sie können auf verschiedenen Plattformen wie Websites, Messenger-Apps oder Sprachassistenten eingesetzt werden. Chatbots können durch Machine Learning und Natural Language Processing (NLP) immer besser auf die Bedürfnisse der Nutzer eingehen und somit eine menschenähnliche Interaktion ermöglichen.
Custom instructions
Custom instructions, auf Deutsch „benutzerdefinierte Anweisungen“, beziehen sich in der Anwendung der Künstlichen Intelligenz auf speziell angepasste Anweisungen oder Befehle, die von Entwicklern erstellt werden, um die KI-Modelle für bestimmte Aufgaben zu trainieren oder anzupassen. Diese Anweisungen können verwendet werden, um das Verhalten der KI-Modelle in spezifischen Szenarien zu steuern und anzupassen. Sie ermöglichen es den Entwicklern, die KI-Modelle gezielt auf die Anforderungen ihrer Anwendung oder ihres Unternehmens anzupassen und zu optimieren. Custom instructions spielen daher eine wichtige Rolle bei der Feinabstimmung von KI-Modellen für spezifische Zwecke und Anwendungen.
Datenschutz
Datenschutz bezieht sich auf die Maßnahmen zum Schutz personenbezogener Daten vor unbefugtem Zugriff, Verlust oder Missbrauch. Im Bereich der Künstlichen Intelligenz ist Datenschutz von entscheidender Bedeutung, da KI-Systeme oft auf große Mengen sensibler Daten zugreifen. Unternehmen und Entwickler müssen sicherstellen, dass KI-Anwendungen die Datenschutzbestimmungen einhalten, um die Privatsphäre der Nutzer zu schützen. Dies beinhaltet die Anonymisierung von Daten, die Einhaltung von Datenschutzgesetzen wie der DSGVO und die Implementierung von Sicherheitsmaßnahmen, um Daten vor unerlaubtem Zugriff zu schützen. Datenschutzrichtlinien und Transparenz bezüglich der Datennutzung sind ebenfalls wichtige Aspekte, um das Vertrauen der Nutzer in KI-Systeme zu gewährleisten.
Debugging
Debugging bezeichnet den Prozess des Auffindens, Analysierens und Behebens von Fehlern oder Bugs in Software oder Algorithmen. Dieser Vorgang ist entscheidend, um die Leistung und Funktionalität von KI-Anwendungen zu verbessern. Typische Methoden des Debuggings umfassen das Durchführen von Tests, das Überprüfen von Code und das Analysieren von Fehlerprotokollen. Werkzeuge wie Debugging-Software und Protokollierungsfunktionen unterstützen Entwickler dabei, Fehler effizient zu lokalisieren und zu beheben. Ein gründliches Debugging trägt dazu bei, die Zuverlässigkeit und Effektivität von KI-Systemen zu gewährleisten.
Debunking
Debunking bezieht sich auf den Prozess, falsche oder irreführende Informationen zu widerlegen oder zu entlarven. In Bezug auf künstliche Intelligenz kann Debunking dazu verwendet werden, um falsche Annahmen oder Mythen über KI-Technologien zu entlarven und korrekte Informationen zu verbreiten. Dieser Prozess ist wichtig, um Missverständnisse über KI zu klären und ein genaueres Verständnis zu fördern. Debunking kann durch Faktenchecks, klare Kommunikation und Aufklärung über die Funktionsweise von KI-Systemen erfolgen. Es trägt dazu bei, Vertrauen in KI-Technologien aufzubauen und die öffentliche Wahrnehmung zu verbessern.
Deep Learning
Deep Learning ist eine Methode des maschinellen Lernens, bei der künstliche neuronale Netze verwendet werden, um komplexe Muster in großen Datenmengen zu erkennen und zu analysieren. Im Gegensatz zum traditionellen maschinellen Lernen, bei dem der Mensch die Merkmale auswählt, die das Modell lernen soll, kann Deep Learning automatisch Merkmale aus den Daten extrahieren. Dadurch ist es besonders gut geeignet für Anwendungen wie Bild- und Spracherkennung. Allerdings erfordert Deep Learning auch große Datenmengen und leistungsfähige Hardware.
DMZ (Demilitarisierte Zone)
Die DMZ ist ein Netzwerkbereich, der zwischen dem internen und externen Netzwerk liegt und als Pufferzone dient. In der Anwendung der Künstlichen Intelligenz wird die DMZ oft genutzt, um externe Zugriffe zu kontrollieren und die Sicherheit des internen Netzwerks zu gewährleisten. Sie fungiert als Schutzschild, um sensible Daten und Systeme vor unautorisierten Zugriffen zu schützen. Die DMZ ermöglicht es, bestimmte Dienste und Anwendungen für externe Benutzer verfügbar zu machen, während gleichzeitig der direkte Zugriff auf das interne Netzwerk eingeschränkt wird. Durch die Implementierung von Sicherheitsmaßnahmen wie Firewalls und Intrusion Detection Systems in der DMZ wird die Netzwerksicherheit erhöht.
Eliza-Effekt
Der Eliza-Effekt bezieht sich auf die Tendenz von Menschen, menschenähnliche Eigenschaften auf KI-Systeme zu projizieren. Dieser Effekt wurde erstmals bei dem Chatbot „Eliza“ beobachtet, der in den 1960er Jahren entwickelt wurde. Menschen neigen dazu, KI-Systemen mehr Intelligenz und Emotionen zuzuschreiben, als sie tatsächlich besitzen. Der Eliza-Effekt kann die Interaktion mit KI beeinflussen, da Nutzer dazu neigen, KI-Systeme menschenähnlicher zu behandeln. Dieser Effekt ist wichtig für die Gestaltung von KI-Systemen, um realistische Erwartungen bei den Nutzern zu schaffen und Missverständnisse zu vermeiden.
Fake News
Fake News sind falsche oder irreführende Informationen, die absichtlich verbreitet werden, um die öffentliche Meinung zu beeinflussen oder Desinformation zu fördern. In Bezug auf künstliche Intelligenz beinhaltet die Bekämpfung von Fake News auch die Verwendung von Algorithmen und maschinellem Lernen, um die Verbreitung und Identifizierung falscher Informationen zu überwachen und einzudämmen. KI-Systeme können beispielsweise dazu beitragen, Muster in der Verbreitung von Fake News zu erkennen und die Glaubwürdigkeit von Nachrichtenquellen zu bewerten. Darüber hinaus werden KI-gestützte Tools entwickelt, um die Authentizität von Inhalten zu überprüfen und die Auswirkungen von Fake News auf die Gesellschaft zu minimieren.
GPT
GPT steht für „Generative Pre-trained Transformer“ und bezieht sich auf Sprachmodelle, die auf der Transformer-Architektur basieren. Diese Modelle sind darauf trainiert, menschenähnliche Texte zu generieren und werden häufig für Aufgaben wie Textgenerierung, Übersetzung und Dialogsysteme eingesetzt. GPT-Modelle sind für ihre Fähigkeit bekannt, kontextbezogene Texte zu erzeugen und haben in verschiedenen Anwendungen der Künstlichen Intelligenz breite Anwendung gefunden.
Guidelines
Guidelines (Richtlinien) im Bereich der Künstlichen Intelligenz beziehen sich auf etablierte Standards und Empfehlungen, die bei der Entwicklung, Implementierung und Nutzung von KI-Systemen berücksichtigt werden sollten. Diese Richtlinien können ethische, rechtliche, und technische Aspekte umfassen, um sicherzustellen, dass KI-Anwendungen verantwortungsbewusst und nachhaltig eingesetzt werden. Sie dienen dazu, potenzielle Risiken zu minimieren, die Transparenz zu erhöhen und die Fairness, Sicherheit und Datenschutz zu gewährleisten. Organisationen und Entwickler können sich an solchen Richtlinien orientieren, um ethisch und gesellschaftlich akzeptable KI-Lösungen zu schaffen.
Haftungsprobleme
Haftungsprobleme im Bereich der Künstlichen Intelligenz beziehen sich auf die Frage, wer für Schäden oder Fehler verantwortlich ist, die durch KI-Systeme verursacht werden. Dies kann besonders komplex sein, da KI-Systeme oft autonom handeln. Die Haftung kann sich auf den Entwickler, den Betreiber oder den Anwender des KI-Systems erstrecken. Rechtliche Rahmenbedingungen und Versicherungsfragen im Zusammenhang mit KI-Haftung sind noch in der Entwicklung und werfen viele offene Fragen auf.
Halluzinationen
In der Anwendung der Künstlichen Intelligenz bezieht sich eine Halluzination auf ein überzeugend formuliertes Resultat einer KI, das aber objektiv falsch ist. Solche Phänomene werden in Analogie zum menschlichen Verhalten als Halluzinationen bezeichnet.
Human in the Loop
Human in the Loop ist ein Konzept, das in der Anwendung von Künstlicher Intelligenz verwendet wird. Es bezieht sich auf die Einbindung von menschlicher Expertise in den KI-Entscheidungsprozess. Dabei wird der Mensch als Teil des Prozesses betrachtet und kann beispielsweise als Kontrolleur oder Entscheider fungieren. Das Ziel ist es, die KI-Entscheidungen zu verbessern und sicherzustellen, dass sie immer ethisch verantwortungsvoll sind. Durch die Einbindung des Menschen in den Prozess kann auch die Qualität der Daten verbessert werden, auf denen die KI basiert.
Künstliche Intelligenz
Künstliche Intelligenz (KI) bezieht sich auf die Fähigkeit von Maschinen, menschenähnliche Intelligenz zu simulieren. KI-Systeme können lernen, sich anpassen und selbst verbessern, um komplexe Aufgaben zu lösen. Es gibt verschiedene Arten von KI, darunter maschinelles Lernen, neuronale Netze und Deep Learning. KI wird in sehr vielen unterschiedlichen Bereichen eingesetzt, z. B. der Medizin, der Automobilindustrie und der Robotik.
Lokale KI
Lokale KI bezieht sich auf KI-Systeme, die auf einem Gerät oder einer Maschine ausgeführt werden anstatt auf einem entfernten Server. Im Gegensatz zur Cloud-KI, die auf die Verarbeitung von Daten in der Cloud angewiesen ist, kann lokale KI auch ohne Internetverbindung arbeiten. Lokale KI wird oft in Anwendungen eingesetzt, die eine schnelle Verarbeitung von Daten erfordern, z. B. in autonomen Fahrzeugen oder Robotern.
Lora
Lora steht für „Long Range“ und bezieht sich auf eine drahtlose Kommunikationstechnologie, die speziell für die Übertragung kleiner Datenmengen über lange Strecken entwickelt wurde. Diese Technologie wird in verschiedenen Anwendungen der künstlichen Intelligenz eingesetzt, z. B. in der Vernetzung von IoT-Geräten (Internet of Things) zur Datenerfassung und -übertragung. Lora ermöglicht es, Sensordaten über große Entfernungen hinweg zu übertragen, was z. B. in Smart Cities, in der Umweltüberwachung und in der Logistik von Nutzen ist. Die Energieeffizienz und die Fähigkeit, Signale auch in schwer zugänglichen Gebieten zu übertragen, machen Lora zu einer beliebten Wahl für drahtlose Vernetzung. Durch die Verwendung von Lora-Technologie können KI-Systeme auf eine Vielzahl von Datenquellen zugreifen und so zu einer verbesserten Entscheidungsfindung und Effizienzsteigerung beitragen.
Maschinelles Lernen
Maschinelles Lernen ist eine KI-Anwendung, bei der Systeme automatisch aus Erfahrungen lernen, ohne explizit dafür programmiert zu werden. Es ist ein Teilgebiet der KI, das sich mit der Automatisierung von intelligentem Verhalten befasst. Dabei ist weder festgelegt, was intelligent bedeutet, noch welche Technik zum Einsatz kommt. Eine der Grundlagen des maschinellen Lernens ist das Deep Learning, das aus neuronalen Netzen besteht und einen Großteil der Merkmalsextraktion automatisiert, wodurch ein Teil der manuellen Eingriffe entfällt und die Verwendung größerer Datenmengen ermöglicht wird. Maschinelles Lernen hat das Ziel, automatisiert menschenähnliche Intelligenz in Algorithmen nachzubilden.
Neuronales Netzwerk
Ein neuronales Netzwerk ist ein Modell, das von biologischen neuronalen Netzwerken inspiriert wurde und in der Künstlichen Intelligenz weit verbreitet ist. Es besteht aus einer Sammlung miteinander verbundener Knoten, die als Neuronen bezeichnet werden. Diese Neuronen nehmen Eingaben entgegen, verarbeiten sie und geben Ausgaben weiter. Durch das Lernen aus Daten kann ein neuronales Netzwerk komplexe Muster erkennen und abstrakte Aufgaben wie Bilderkennung oder Sprachverarbeitung durchführen. Die Leistung eines neuronalen Netzwerks hängt von seiner Architektur, den verwendeten Algorithmen und den Trainingsdatensätzen ab.
Playground
Ein Playground ist eine virtuelle Umgebung, die es Entwicklern ermöglicht, mit KI-Modellen und -Algorithmen zu experimentieren, ohne aufwendige Infrastruktur aufsetzen zu müssen. In einem solchen Sandbox-ähnlichen Setting können Nutzer verschiedene Parameter und Datensätze testen, um das Verhalten von KI-Modellen zu untersuchen und zu verstehen. Oft bieten Unternehmen und Forschungseinrichtungen eigene Playgrounds an, um die Nutzung ihrer KI-Technologien zu fördern. Der Playground dient als sicherer Raum, um neue Ideen zu erproben, Fehler zu machen und das Verständnis für KI-Systeme zu vertiefen. Durch die Interaktion mit einem Playground können Entwickler und Forscher ihre Fähigkeiten im Umgang mit KI verbessern und neue Anwendungen entwickeln.
Prompt
Ein „Prompt“ ist in der Anwendung der Künstlichen Intelligenz ein Text oder eine Aussage, die als Eingabe für ein Modell dient und den Kontext oder das gewünschte Ergebnis beschreibt. Es kann sich um eine Frage, einen Satz oder sogar um Stichpunkte handeln. Der Prompt wird verwendet, um dem Modell klare Anweisungen zu geben und seine Ausgabe entsprechend zu lenken. Ein gut formulierter Prompt kann dazu beitragen, präzise und relevante Antworten von KI-Modellen zu erhalten.
Regulierung
Regulierung bezieht sich auf die Gesetze, Vorschriften und Standards, die von Regierungen und anderen Institutionen festgelegt werden, um die Entwicklung und Anwendung von KI zu steuern und zu kontrollieren. Ziel ist es, sicherzustellen, dass KI-Systeme verantwortungsvoll eingesetzt werden und keine negativen Auswirkungen auf die Gesellschaft haben. Die Regulierung von KI ist ein komplexes Thema, das viele Fragen aufwirft, z. B. wer für die Regulierung verantwortlich ist und wie sie durchgesetzt werden kann.
Risikostufen
KI-Systeme werden anhand ihres potenziellen Risikos für Gesundheit, Sicherheit und Grundrechte von Personen meist in vier Risikostufen eingeteilt.
1. Inakzeptables Risiko: KI-Systeme mit inakzeptablem Risiko können schwere oder irreversible Schäden verursachen. Beispiele sind KI-Systeme, die für autonome Waffensysteme oder die Überwachung von Personen eingesetzt werden.
2. Hohes Risiko: KI-Systeme mit hohem Risiko können erhebliche Schäden verursachen. Beispiele sind KI-Systeme, die für die medizinische Diagnose oder das autonome Fahren eingesetzt werden.
3. Begrenztes Risiko: KI-Systeme mit begrenztem Risiko können leichte oder moderate Schäden verursachen. Beispiele sind KI-Systeme, die für die Personaleinsatzplanung oder die Kundenberatung eingesetzt werden.
4. Minimales Risiko: KI-Systeme mit minimalem Risiko verursachen keine oder nur sehr geringe Schäden. Beispiele sind KI-Systeme, die für die Produktauswahl oder die Werbung eingesetzt werden.
Roboterjournalismus
Roboterjournalismus bezieht sich auf den Einsatz von KI und Algorithmen, um automatisch Nachrichtenartikel zu erstellen. Dabei werden Daten und Informationen aus verschiedenen Quellen gesammelt und verarbeitet, um einen Artikel zu generieren. Der Einsatz von Roboterjournalismus kann dazu beitragen, den Prozess der Nachrichtenerstellung zu beschleunigen und zu automatisieren. Allerdings gibt es auch Bedenken hinsichtlich der Qualität und Objektivität solcher Artikel, da sie nicht von menschlichen Journalisten verfasst werden und es bisweilen an sorgfältiger redaktionelle Kontrolle hapert.
Schwache künstliche Intelligenz
Die schwache künstliche Intelligenz bezieht sich auf KI-Systeme, die auf spezifische Aufgaben oder Problemlösungen beschränkt sind, im Gegensatz zur starken künstlichen Intelligenz, die menschenähnliche kognitive Fähigkeiten aufweisen soll. Diese Systeme sind darauf ausgelegt, bestimmte Aufgaben effizient zu erledigen, wie beispielsweise Spracherkennung, Bilderkennung oder Empfehlungssysteme. Schwache KI wird in vielen Anwendungen eingesetzt, von virtuellen Assistenten bis hin zu medizinischen Diagnosesystemen.
Sicherheitsrisiken
Zu den Sicherheitsrisiken in der Anwendung künstlicher Intelligenz zählen z. B. Datenschutzverletzungen, unerwünschte Manipulationen durch fehlerhafte Algorithmen und die Möglichkeit von Cyberangriffen auf KI-Systeme. Die Identifizierung und Bewältigung dieser Risiken ist entscheidend, um das Vertrauen in KI-Technologien zu stärken und ihre sichere Anwendung zu gewährleisten. Unternehmen und Entwickler sind daher gefordert, Sicherheitsmaßnahmen zu implementieren, um die potenziellen Risiken im Zusammenhang mit künstlicher Intelligenz zu minimieren.
Starke künstliche Intelligenz
Die starke künstliche Intelligenz bezieht sich auf eine Form der KI, die in der Lage ist, komplexe Probleme eigenständig zu lösen, ohne menschliche Eingriffe. Sie besitzt die Fähigkeit, Aufgaben zu bewältigen, die normalerweise menschliche Intelligenz erfordern, wie beispielsweise das Lösen von Problemen, das Verstehen natürlicher Sprache und das Lernen aus Erfahrungen. Diese Art der KI wird oft als „allgemeine KI“ bezeichnet, da sie ein breites Spektrum von Aufgaben bewältigen kann. Die Entwicklung einer starken künstlichen Intelligenz wirft ethische und gesellschaftliche Fragen auf, da sie potenziell weitreichende Auswirkungen auf die Menschheit haben könnte. Forscher und Experten arbeiten daran, die Entwicklung und Anwendung dieser Technologie verantwortungsbewusst zu gestalten, um sicherzustellen, dass sie zum Wohl der Gesellschaft eingesetzt wird.
Sprachmodell (Large Language Model)
Large Language Models sind leistungsstarke KI-Modelle, die darauf trainiert sind, natürliche Sprache zu verstehen und zu generieren. Sie verwenden riesige Datensätze, um komplexe Muster in der Sprache zu erlernen. Diese Modelle haben das Potenzial, vielfältige Aufgaben wie Übersetzung, Textgenerierung und sogar Konversationen zu bewältigen. Beispiele für solche Modelle sind Chat-GPT von OpenAI oder BARD von Google. Aufgrund ihrer Größe und Komplexität erfordern Large Language Models jedoch erhebliche Rechenressourcen für Training und Einsatz.
Temperatur
Die Temperatur ist ein wichtiger Faktor in der Künstlichen Intelligenz, insbesondere im Bereich des Trainings von Modellen. Bei der Optimierung von KI-Modellen spielt die Temperatur eine Rolle, da sie die Stabilität und Konvergenz des Trainingsprozesses beeinflusst. In der KI wird die Temperatur auch im Zusammenhang mit probabilistischen Modellen verwendet, um die Wahrscheinlichkeitsverteilung zu steuern. Dies ist besonders relevant bei der Generierung von Text durch KI-Modelle, wo die Temperatur die Varianz und Diversität der generierten Texte beeinflusst. Die Temperatur wird oft als Hyperparameter in KI-Modellen behandelt, was bedeutet, dass sie vor dem eigentlichen Training festgelegt werden muss. Die Wahl der richtigen Temperatur kann einen erheblichen Einfluss auf die Leistung und Qualität von KI-Modellen haben.
Template
Ein Template ist eine Vorlage oder ein Muster, das in der KI verwendet wird, um Daten oder Informationen zu strukturieren. Es dient als Grundlage für die Generierung von Texten, Bildern oder anderen Inhalten durch KI-Modelle. Templates können in verschiedenen KI-Anwendungen wie Chatbots, Textgenerierung und Bildverarbeitung eingesetzt werden. Sie ermöglichen es, konsistente und strukturierte Ergebnisse zu erzielen, indem sie den KI-Modellen eine klare Richtlinie für die Ausgabe vorgeben. Die Verwendung von Templates kann die Effizienz und Qualität der von KI generierten Inhalte verbessern, da sie als Leitfaden für die Erstellung dienen. In der KI-Entwicklung werden Templates oft angepasst und optimiert, um den spezifischen Anforderungen und Zielen eines Projekts gerecht zu werden.
Token
Ein Token ist in der Anwendung der Künstlichen Intelligenz eine grundlegende Einheit, die einen spezifischen Wert oder eine Bedeutung repräsentiert. Es kann beispielsweise ein einzelnes Wort, ein Zeichen oder sogar ein Pixel sein. Tokens werden verwendet, um Datenstrukturen zu erstellen und Informationen für maschinelles Lernen zugänglich zu machen. Sie dienen als Bausteine für Modelle und Algorithmen zur Verarbeitung natürlicher Sprache sowie zur Bild- und Signalverarbeitung. Durch die Analyse von Tokens können komplexe Aufgaben wie Textklassifikation, Übersetzung oder Objekterkennung bewältigt werden.
Transparenzhinweis
Ein Transparenzhinweis in der Anwendung von Künstlicher Intelligenz bezieht sich auf die Offenlegung von Informationen über die Funktionsweise, Datenquellen und Entscheidungsprozesse eines KI-Systems. Dieser Hinweis soll Nutzern helfen zu verstehen, wie die KI arbeitet und welche Daten sie verwendet, um fundierte Entscheidungen zu treffen. Ein transparentes KI-System trägt zur Vertrauensbildung bei und ermöglicht es den Nutzern, die Auswirkungen und potenziellen Bias besser zu verstehen. Transparenzhinweise sind ein wichtiger Schritt, um ethische und verantwortungsvolle KI-Entwicklung und -Nutzung zu fördern.
Turing-Test
Der Turing-Test ist ein Test, der von Alan Turing im Jahr 1950 entwickelt wurde, um zu bestimmen, ob eine Maschine intelligentes Verhalten zeigen kann, das von einem menschlichen Verhalten nicht zu unterscheiden ist. Der Test besteht darin, dass ein Mensch und eine Maschine in getrennten Räumen Fragen von einem Dritten beantworten müssen. Wenn der Dritte nicht in der Lage ist zu unterscheiden, wer die Maschine und wer der Mensch ist, gilt die Maschine als intelligent. Der Turing-Test ist ein wichtiger Meilenstein in der Entwicklung der Künstlichen Intelligenz und hat dazu beigetragen, die Forschung in diesem Bereich voranzutreiben.
Urheberrecht
Das Urheberrecht ist ein Recht des geistigen Eigentums, das dem Urheber eines Werks die ausschließliche Befugnis zur Verwertung dieses Werks einräumt. Urheberrechtlich geschützt sind nur Werke, die eine persönliche geistige Schöpfung des Urhebers sind. In Anwendungen der Künstlichen Intelligenz stellt das Urheberrecht einige Herausforderungen dar. So ist beispielsweise unklar, ob KI-generierte Werke urheberrechtlich geschützt sind. Außerdem stellt sich die Frage, wie das Urheberrecht die Nutzung von KI-gestützten Technologien wie Text- und Bilderkennung beeinflusst.
Verbreiterhaftung
Verbreiterhaftung ist ein rechtlicher Begriff, der besagt, dass eine Person oder Organisation für die Verbreitung von rechtswidrigen Inhalten haftbar gemacht werden kann, auch wenn sie diese nicht selbst erstellt hat bzw. durch oder mit Hilfe von Künstlicher Intelligenz hat erstellen lassen. Dies kann beispielsweise bei der Verbreitung von urheberrechtlich geschütztem Material oder bei der Verbreitung von Hassrede im Internet der Fall sein. Die Verbreiterhaftung gilt auch für Plattformbetreiber, die Inhalte von Nutzern auf ihren Plattformen veröffentlichen.
Zitierrecht
Das Zitierrecht bezieht sich auf die rechtliche Erlaubnis, Texte, Ideen oder Werke anderer Personen unter bestimmten Bedingungen zu zitieren oder zu verwenden. Es ermöglicht es, kurze Auszüge aus geschützten Werken zu verwenden, solange die Quelle ordnungsgemäß angegeben wird. Das Zitierrecht ist wichtig, um die Integrität des geistigen Eigentums zu wahren und gleichzeitig den Austausch von Wissen und Informationen zu fördern. In der KI-Anwendung kann das Zitierrecht relevant sein, wenn Algorithmen auf Textdaten trainiert werden, die aus verschiedenen Quellen stammen. Es ist wichtig, die rechtlichen Aspekte des Zitierrechts zu beachten, um die Einhaltung von Urheberrechten und Lizenzvereinbarungen sicherzustellen.
Download des Glossars als PDF (154 KB)