Ihr eigenes
ScioGPT
Durch Assoziationen maschineller Intelligenz erkennt Ihr propritäres GPT Muster und Korrelationen, die exklusive innovative Lösungen und Voraussagen erlauben.
Ihre Business Intelligence
ScioGPT
Das propritär generierte ScioGPT ist das datengesicherte generative Analysesystem, das auf Grundlage von vorhandenem Wissen und korrelierten globalen Daten Ihre Business Intelligence verbessert.
- Schritt
Geschäftsgeheimnisse sichern!
KI ist nicht gleich KI
Künstliche Intelligenz (KI) hat zweifellos das Potenzial, unsere Arbeitsweise grundlegend zu verändern und die Lebensqualität jedes Einzelnen zu beeinflussen.
Die Nutzung von Sprachassistenten wie Alexa oder Siri, die auf KI-Algorithmen und allgemeinen Suchmaschinen-Datenbanken basieren, um einfache Fragen zu beantworten oder banale Aufgaben zu erledigen, ist in Unternehmen weitgehend unbedenklich.
Nicht ratsam ist es hingegen, firmeninterne Informationen über öffentliches, meist kostenloses ChatGPT Fremdunternehmen wie OpernAI in die Hände zu geben. Jede dort registrierte Anfrage + Antwort wird als weitere Trainingsinformation in das für alle Welt offene OpenAI-ChatGPT eingespeist!
Es ist demnach überaus geschäftsschädigend, wenn sich Mitarbeiter Antworten auf wichtige firmenrelevante Fragen mit öffentlich zugänglichen KI-Systemen automatisch generieren lassen.
Betriebs- und Geschäftsgeheimnisse sind ebenso wie interne Korrespondenzen oder Pläne eines Unternehmens wertvolles firmeneigenes Wissensgut an dem jeder Rechtsträger ein berechtigtes Interesse an der Nichtverbreitung hat. Dieses Wissen darf auf keinen Fall an die Öffentlichkeit gelangen, sondern nur einem begrenzten Personenkreis zugänglich bleiben.
Bei wichtigen unternehmerischen Entscheidungen ist es daher klug, sich vertrauensvoll nur auf das eigene betriebliche Erfahrungspotential und nicht auf externen Rat zu stützen.
Die Konkurrenz schläft nicht und bedient sich ebenfalls dieser meist (noch) kostenlosen KI-Tools, um damit indirekt Aussagen, Aktivitäten oder Probleme der Konkurrenz aufzudecken.
So gesehen kommt man als Unternehmen heute nicht mehr umhin, sich diesbezüglich abzusichern und bei Bedarf mit einem firmeneigenen, autark operierenden Offline-KI-System die notwendigen Informationen und Ideen anonym aus dem riesigen öffentlichen Wissenspool zu generieren.
Der autarke eigene GPT-Chatbot ermöglicht es, das zusätzlich enorme assoziative Wissenspotenzial von KI unternehmerisch voll auszuschöpfen - und gleichzeitig die eigenen wertvollen Daten zu schützen.
Durch spezifische Funktionalitäten kann dieses eigene KI-Tool ScioGPT perfekt auf Ihre Anforderungen abgestimmt werden.
Walter Wilhelm Legenstein
CEO SCIODAT GMBH
ScioGPT
Im Folgenden finden Sie Antworten
Möchten Sie selbst erleben, was My ChatGPT so beliebt macht?
Entscheider
nutzen zum Kennenlernen privat oder geschäftlich die kI-Software My ChatGPT für objektiv vernünftige und gut gemeinte Ratschläge, wenn sie Unterstützung bei der Bewältigung persönlicher Probleme oder vor schwierigen beruflichen oder unternehmerischen Entscheidungen stehen.
Unternehmen
nutzen zum Kennenlernen die Business-Intelligence-Software My ChatGPT für datengestützte Entscheidungen und Vorschläge, um Ihre unternehmerische Leistung wesentlich zu verbessern - ohne Ihre Geshäftsgeheimnisse mit dem gesamten Internet zu teilen.
Was ist besonders an MY CHATGPS?
Wie wird MY ChatGPT in Ihr Unternehmen integriert?
Eine robuste und skalierbare Daten- und KI-Infrastruktur ist die Basis Ihrer eigenen KI-Lösung.
Als führendes Unternehmen für Datenanalyse unterstützt SCIODAT seit mehr als fünf Jahren Organisationen bei der Umsetzung von Data Science.
Gemeinsam mit Ihrem Unternehmen analysieren wir zunächst den konkreten Bedarf an KI-Unterstützung. Profitieren Sie in diesem vertrauensvollen Prozess von unserer Erfahrung in der technischen Umsetzung unterschiedlichster KI-Lösungen.
Ihr eigenes ChatGPT ist ein Computerprogramm, das darauf trainiert ist, menschenähnliche Antworten auf Fragen oder Texten zu generieren. Es verbessert sich ständig weiter, indem es große Textmengen analysiert und daraus lernt. Das Ergebnis ist Ihr intelligenter firmeneigener Chatbot, der menschenähnliche Gespräche mit Ihnen führen kann.
Technisch gesehen analysiert der Chat-GPT-Algorithmus Ihre Fragen und Textbeispiele und entwickelt daraus eine digitale Mustererkennung. Diese hilft ihm, die menschliche Sprache zu verstehen und mit Hilfe eines frei erstellten Symbolsystems verständlich darauf zu reagieren.
Die Informationen für diesen digitalen Wissens-Service bezieht Ihr ChatGPT aus den Daten, mit denen er trainiert wird. Diese stammen neben Ihren unternehmenseigenen Daten aus Internetquellen wie Wikipedia, Nachrichtenseiten und Portalen mit Fachartikeln aus Politik, Wissenschaft und Gesellschaft. Insgesamt umfasst das Textkorpus, auf dem das Sprachmodell basiert, auf rund 500 Milliarden Wörter.
Wie funktioniert MY CHATGPT?
Häufigstes Anwendungsbeispiel: Kunden, Behörden, Partner oder Investoren haben jeweils ganz konkrete Fragen an Ihr Unternehmen, die von Ihnen oder (Service-)mitarbeitern und -mitarbeiterinnen beantwortet werden sollen. Für die Beantwortung greifen Sie in der Regel händisch auf unterschiedlichste Ressourcen wie Geschäftsberichte, Benutzerhandbücher oder Vertragsinformationen zurück.
Um aber eine wesentliche Effizienzsteigerung zu gewährleisten, stellt man dem Servicemitarbeitern idealerweise einen betriebseigenen Chatbot an die Seite, der bei der Beantwortung von Kundenanfragen aktiv unterstützt.
Kommt eine Anfrage rein, nutzt der zuständige Mitarbeiter den Chatbot von My ChatGPT, um die vom Kunden angefragten Informationen mit entscheidend gerinferem Zeitaufwand automatisiert digital zusammenzutragen. Der Chatbot spielt die rohen oder bereits in einem Antworttext verpackten (Forecasting-)Informationen an den Service Desk zurück, welche die Antwort überprüft und an den Kunden weiterleitet.
Um diese Variante technisch umzusetzen, reicht es, auf das Grounding des GPT-Basismodells zurückzugreifen. Grundlage für das Grounding ist eine unternehmenseigene Wissensdatenbank bestehend aus Geschäftsberichten, Vertragsinformationen, Benutzerhandbüchern u.a.m.
Was bedeutet Grounding? Häufig stehen nicht genügend historische Beispiele für das Finetuning eines GPT-Modells zur Verfügung. Da diese jedoch standardmäßig nur ein generelles Textverständnis haben und spezifische Informationen aus Texten extrahieren können, ist es für einige Anwendungsfälle sinnvoll, zusätzlich zu dem Prompts (Aufforderung an den Benutzer, eine Eingabe zu tätigen) weitere Informationen an das GPT-Modell zu überliefern. Genau dies wird mithilfe des sogenannten Grounding erreicht.
Im Rahmen des Grounding werden deine Prompts mit unternehmensspezifischen Daten angereichert, um
einer konkreten Anfrage Kontext zu geben. Mit dieser Methode wird also der Wissensschatz Ihres GPT-Modells
erweitert, sodass es zuverlässige und spezifische Antworten liefern kann. Der Algorithmus selbst bleibt dabei, anders als beim Finetuning, unverändert. Zuerst werden Ihre Datenquellen (z. B. PPTX, .html, PDF) in die eigene Wissensdatenbank geladen. Dies ermöglicht es, relevante Textinhalte aus Datenquellen, die zuvor als Vektorrepräsentationen indiziert wurden, in verwendbare Formate zu extrahieren. Geben Sie nun einen Prompt
über eine Anwendung ein, wird mithilfe der Vektorindizes bestimmt, welche der angebundenen Dateien basierend auf Ihre Anfrage und dem bereitgestellten Konversationsverlauf abgerufen und zusammen mit Ihrem Prompt für die Antworterstellung an das GPT-Modell weitergegeben werden sollen.
Mit jedem Vorgang lernt das System dazu und wird dadurch immer effektiver und schneller.
Welche Variante ist nun die vorteilhafte?
Das Beispiel zeigt, dass die Wahl zwischen den im vorherigen
Abschnitt vorgestellten Individualisierungsvarianten
immer vom Use Case abhängt.
Dabei macht
es in den meisten Anwendungsfällen Sinn, mit dem
Grounding zu starten und bei Bedarf aufbauendes
Finetuning zu betreiben. Grund hierfür ist, dass das
Sprachverständnis also die “Denkweise” der Basismodelle
für die meisten Use Cases ausreicht. Vielmehr
fehlt den GPT-Modellen in den meisten Fällen lediglich
der Zugang zu unternehmensspezifi schen Informationen,
welche für die Beantwortung von Anfragen notwendig
sind und über Grounding verfügbar gemacht
werden können.
Use Cases, in denen nur auf Finetuning zurückgegriff
en wird, sind eher selten. Dies liegt daran, dass
eine riesige Menge an Trainingsdaten notwendig
ist, um das KI-Modell so stark zu verändern, dass es
alle möglichen Anfragen ohne Zuhilfenahme einer
unternehmensspezifi schen Wissensdatenbank zufriedenstellend
beantworten kann. Zudem können sich
Informationen ändern, was in dem Fall des alleinigen
Finetuning ein regelmäßiges Nachtrainieren des KIModells
bedeuten würde. Im Falle des Grounding muss
lediglich die Wissensdatenbank aktualisiert werden,
während das KI-Modell unberührt bleibt.
Bevor auf Finetuning zurückgegriff en wird, sollte überprüft
werden, ob die erhoff ten Ergebnisse ebenfalls
durch eine System Message erreicht werden können.
Die System Message ist ein vorformulierter Text bestehend
aus Anweisungen, mit dem jeder Prompt
automatisch angereichert wird. Soll der Chatbot
zum Beispiel in einem formellen Sprachstil antworten,
kann dies in der System Message festgehalten werden.
Hierdurch können Denk- und Ausdrucksweise des
Chatbots bereits in begrenztem Maße an den eigenen
Use Case angepasst werden, wodurch das Finetuning
umgangen werden kann. <
Um das volle Potenzial der Sprachmodelle von
OpenAI zu nutzen, bedarf es in den meisten Fällen
ihrer Anpassung an unternehmensspezifi sche Use
Cases. So stellst du sicher, dass du genau die Antworten
erhältst, die du benötigst.
Bevor wir uns anschauen, wie diese Anpassung oder
Individualisierung aussehen kann, wollen wir uns vor
Augen führen, wie die Interaktion zwischen einer Applikation
und Azure OpenAI funktioniert. Die Prompts,
welche über deine Anwendungen (zum Beispiel ein
Chat-Portal) eingegeben werden, treten über die
entsprechenden APIs in das Azure-Ökosystem ein.
Bevor diese überhaupt durch ein KI-Modell bearbeitet
werden, durchlaufen sie zwei Sicherheitsmechanismen:
Content-Filtering und Abuse Monitoring.
Content-Filtering
Hier wird der Prompt auf schädliche (zum Beispiel
sexuelle oder gewalttätige) Inhalte geprüft. Werden
bestimmte Schwellenwerte erreicht, so wird der Datenfl
uss gestoppt. Die Schwellenwerte sollen zukünftig
in Abstimmung mit Microsoft unternehmensspezifi sch
angepasst werden können. Wichtig ist: Das Content-
Filtering-System speichert keine Prompts oder Antworten,
sondern analysiert diese in Echtzeit.
Abuse Monitoring
Das sogenannte Abuse Monitoring (Missbrauchsüberwachung)
dient dazu, wiederkehrende Verhaltensweisen
zu identifi zieren, die auf einen Verstoß gegen den
Verhaltenskodex hinweisen (zum Beispiel regelmäßiger
schädlicher, gewalttätiger Content). In diesem Zuge
speichert Microsoft alle Prompts und Antworten für bis
zu 30 Tage (Data Retention). Der Datenspeicher ist
logisch nach Kundenressourcen getrennt (jede Anfrage
enthält die ID der Azure OpenAI-Ressource des
Kunden) und in der Azure-Region lokalisiert, in der die
Azure OpenAI-Service-Ressource des Kunden bereitgestellt
wird.
Menschliche Überprüfer, die den potenziellen Missbrauch
beurteilen, können nur dann auf Prompts und
Antwortdaten zugreifen, wenn diese Daten vom Miss-brauchsüberwachungssystem markiert worden sind
(Flagging). Bei den menschlichen Prüfern handelt es
sich um autorisierte Microsoft-Mitarbeiter, die über
punktuelle Abfragen unter Verwendung von Anforderungs-
IDs, Secure Access Workstations (SAWs) und
Just-In-Time (JIT)-Anforderungsgenehmigungen durch
Team-Manager auf die Daten zugreifen. Für den Azure
OpenAI Service, der im Europäischen Wirtschaftsraum
eingesetzt wird, befinden sich die autorisierten Microsoft-
Mitarbeiter ebenfalls im Europäischen Wirtschaftsraum.
Kunden, die aufgrund ihrer internen Richtlinien oder geltender
gesetzlicher Bestimmungen die Speicherung
und Überprüfung von Prompts und Antworten zur Missbrauchserkennung
deaktivieren wollen, haben die Möglichkeit,
einen Antrag bei Microsoft zu stellen. Gibt das
Content-Filtering-System deinen Prompt frei, wird dieser
an das von dir verwendete GPT-Modell weitergeleitet.
Funktionsweise GPT-Modelle
Im GPT-Modell selbst wird deine Anfrage durch eine
Reihe von Algorithmen, von denen der Großteil Neuronale
Netzwerke sind, bearbeitet. Die genaue Funktionsweise
zu erklären, würde den Umfang dieses
Whitepapers sprengen. Grundsätzlich können allerdings
drei Phasen der Datenbearbeitung unterschieden
werden:
1. Tokenisierung
(Input Layer)
Als erstes wird dein Prompt in seine Einzelteile, sprich
Tokens zerlegt. Dabei repräsentiert jedes Token in der
Regel ein Wort oder ein Teil eines Wortes.
2. Sprachverständnis
(Embedding Layer, Transformer Layer)
Darauffolgend werden die Tokens in ein maschinenlesbares
Format (Vektoren) umgewandelt, indem jedes
Token in einen hochdimensionalen Raum projiziert wird
(Embedding Layer). Dies ermöglicht es dem Modell,
die semantische Bedeutung der einzelnen Tokens zu
Was ist ein Prompt?
Mit Blick auf generative KI-Modelle wie
ChatGPT bezeichnet ein Prompt den eingegebenen
Text oder die Frage, die dem Modell vorgelegt
wird, um eine Antwort zu generieren.
verstehen. Die Vektoren werden anschließend mehrfach
durch die für GPT-Modelle charakteristischen
Transformer-Blöcke geleitet. Hierbei handelt es sich
um mithilfe von Deep Learning trainierte Neuronale
Netze, die es jedem Token ermöglichen, andere
Tokens in demselben Prompt zu gewichten und somit
zu bestimmen, wie viel Aufmerksamkeit jedes Token
den anderen schenken sollte. Somit wird sichergestellt,
dass das Modell die Beziehung zwischen den Tokens
und damit den Kontext des Prompts “versteht” (Self-
Attention).
3. Antwortgenerierung
(Output Layer)
Das Modell beginnt mit der Generierung einer Antwort,
indem es das wahrscheinlichste nächste Token
(Wort oder Zeichenteil) basierend auf dem, was es
bisher gesehen hat, vorhersagt. Dieser Prozess wird
autoregressiv fortgesetzt. Das heißt, jedes Mal, wenn
ein Token generiert wird, wird es als Teil der Eingabe
für die Vorhersage des nächsten Tokens verwendet.
Dies geschieht so oft, bis ein End-Token erreicht wird
oder die Antwort eine bestimmte Länge hat. Abschließend
wird die generierte Antwort detokenisiert.
Die durch das Modell generierte Antwort wird, wie der
Prompt zuvor, ebenfalls im Rahmen des Content-
Filtering und Abuse Monitoring auf schädliche Inhalte
kontrolliert, bevor sie über die API wieder an deine Anwendung
gespielt wird.
Finetuning
Da wir zuvor die grundsätzliche Funktionsweise von
Azure OpenAI und GPT-Modellen betrachtet haben,
stellt sich nun die Frage, wie die KI-Modelle auf unternehmensspezifi
sche Use Cases zugeschnitten werden
können. Die erste Möglichkeit stellt das sogenannte
Finetuning dar.
Da GPT-Modelle auf öff entlichen Daten trainiert
werden und eher generalisierte Modelle darstellen,
kann es passieren, dass die Antworten oder die
Formulierung der Antworten nicht adäquat auf den
vorliegenden Anwendungsfall abgestimmt sind. Wenn
beispielsweise die Klassifi kation eines medizinischen
Befundes basierend auf Symptombeschreibungen
durch den Patienten erstellt werden soll, wird ein GPTModell
in seiner Basisform dazu höchstwahrscheinlich
nicht in der Lage sein. Aus diesem Grund bietet Azure
die Möglichkeit, das GPT-Basismodell anzupassen.
Im Rahmen des Finetunings wird ein GPT-Basismodell
auf einem kleineren, spezifi schen Datensatz weiter
trainiert. Die Idee ist, das allgemeine Wissen, welches
das Basismodell aus dem Training mit Millionen von
Daten aus dem Internet gewonnen hat, zu nutzen und
es für eine bestimmte Aufgabe oder einen bestimmten
Bereich zu spezialisieren.
Für das genannte Beispiel müssten daher medizinische
Befunde inklusive der Klassifi kation des Befundes
beschaff t werden. Diese Trainingsdaten müssen
anschließend in Form von Prompt-Antwort-Paaren
als JSON-Dateien über die entsprechende API in die
Azure OpenAI-Ressource im Azure-Tenant eingespeist
werden. Diese Paare sehen wie folgt aus:
{"prompt": "Stechende, klopfende Schmerzen im Ohr
in Kombination mit Fieber", "response": "Mittelohrentzündung."}.
Durch das Finetuning wird die Gewichtung einzelner
Parameter im Embedding, Transformer und Output
Layer auf deinen Use Case zugeschnitten. Das bedeutet,
dass das Modell sein allgemeines Sprachverständnis
beibehält, sich aber an die Nuancen und
Besonderheiten deines Use Cases anpasst.
Das Ergebnis ist eine höhere Antwortqualität. Zudem
müssen weniger Kontextinformationen an das Modell
gesendet werden, was Tokens spart sowie die Latenzzeit
der Anfragen verbessert. Allerdings ist zu berücksichtigen,
dass durch den Prozess des Finetuning
wiederum Kosten anfallen. Sie entstehen durch das
Training (gemessen in Trainingsstunden), das Hosting
(gemessen in Hosting-Stunden) und die Nutzung
(gemessen je 1.000 Tokens). Die Kosten für die Nutzung
übersteigen dabei die der Basisversionen (siehe
Tabelle).
Mit Blick auf die Themen Data Security & Privacy gilt:
Die Trainingsdaten und angepassten Modelle
> sind ausschließlich für die Nutzung durch den
Kunden verfügbar.
> werden in der gleichen Region wie die Azure
OpenAI-Ressource gespeichert.
> können doppelt verschlüsselt werden
(standardmäßig mit der AES-256-Verschlüsselung
von Microsoft und optional mit einem vom Kunden
verwalteten Schlüssel).
> können vom Kunden jederzeit gelöscht werden.
> werden nicht zum Trainieren, Nachtrainieren oder
Verbessern von Basismodellen von Microsoft oder
Drittanbietern verwendet.
Whitepaper
MY CHAT GPT

CHAT GPT programmieren:
https://www.udemy.com/course/azure-open-ai/?utm_source=adwords&utm_medium=udemyads&utm_campaign=DataScience_v.PROF_la.EN_cc.ROW_ti.5336&campaigntype=Search&portfolio=ROW-English&language=EN&product=Course&test=&audience=DSA&topic=&priority=&utm_content=deal4584&utm_term=_._ag_85469003954_._ad_535397280411_._kw__._de_c_._dm__._pl__._ti_dsa-774930036449_._li_9044339_._pd__._&matchtype=&gad_source=1&gclid=EAIaIQobChMI9qju1o_qhgMVf0tBAh0BfgNuEAAYAyAAEgKTZvD_BwE&couponCode=2021PM20
TECHNISCHE INFORMATION
Die für einen Chatbot gängigsten KI-Modelle:
So funktioniert ChatGPT ??
GPT steht für „Generative Pre-trained Transformer“. Diese Software basiert auf Deep Learning. Damit werden künstliche neuronale Netze generiert die dem des menschlichen Nervensystem ähneln.
Für das Training der Sprach-KI ließen die Forschenden von OpenAI die Sprach-KI auf das Internet los, um diese zu trainieren. An Texten mit insgesamt etwa 500 Milliarden Wörtern lernte sie, wie Sprache funktioniert – zum Beispiel was die Unterschiede zwischen geschriebener und gesprochener Sprache sind und in welcher Form auf welche Frage geantwortet werden soll.
Was ist ChatGPT?
GPT steht für "Generative Pre-trained Transformer", also generativ vortrainierter Transformator. Diese Sprach-KI wurde an Textdaten aus dem Internet mit insgesamt etwa 500 Milliarden Wörtern darauf trainiert, selbst Texte zu generieren - und zwar möglichst menschenähnlich.
Das US-amerikanische Unternehmen OpenAI entwickelte auf Basis dieser Sprach-KI dann einen Chatbot, der Texte basierend auf seinem "Wissen" aus dem Internet erzeugen kann. Der ChatGPT kann interaktiv genutzt werden: Wie beim Chatten mit einem Menschen, kann man Fragen stellen oder das Programm darum bitten, einen Text zu einem bestimmten Thema zu schreiben oder zusammenzufassen.
Ein Chatbot erleichtere Vieles – zum Beispiel, passgenauere Prüfungsaufgaben zu formulieren. Gerade Lehrkräfte in technisch geprägten Studienfächern wie zum Beispiel den Ingenieurswissenschaften fordern explizit auch ihre Studierenden auf, das KI Sprachmodell für ihre Hausarbeiten zu nutzen. Denn wichtig sei doch, dass Studierende in der Lehre auf das vorbereitet werden, was KI und Technologien wie ChatGPT leisten können.
Hausaufgaben, Hausarbeiten und jetzt auch wissenschaftliche Veröffentlichungen. Der Bot ChatGPT mischt Bildung und Wissenschaft auf. Wie schätzen Fachleute den Einsatz von Sprachmodellen ein?
Beim Chatten mit ChatGPT fällt kaum auf, dass es sich um einen Chatbot handelt. Während einige den Chatbot aus reiner Neugier ausprobiert haben, nutzen ihn andere zum Beispiel aus beruflichem Interesse: Welche komplexen Programmieraufgaben kann der Bot bereits lösen? Wie klingt es, wenn ChatGPT eine E-Mail für mich formuliert?
Auch Schülerinnen und Schülern sowie Studierenden blieb der neue Nutzen der Sprach-Künstlichen Intelligenz (KI) nicht unbekannt. Schulaufgaben und ganze Hausarbeiten wurden mithilfe des Chatbots generiert. Und nun breiten sich Aufmerksamkeit und Diskussion auch auf wissenschaftliche Veröffentlichungen aus.
Denn Chat GPT hat bereits an wissenschaftlichen Veröffentlichungen mitgeschrieben und wird in mindestens vier Papern sogar als Co-Autorin genannt, wie das Wissenschaftsmagazin Nature berichtet.
Künstliche Intelligenz kann Diskriminierung lernen
Diesen Ansatz nennt man unüberwachtes Lernen: Die KI ist während des Trainings auf sich allein gestellt. Das Problem: Das Internet ist voll von beispielsweise rassistischer oder sexistischer Sprache. Das führt häufig dazu, dass eine KI ungewolltes Verhalten lernt.
Chat-Bots wie „Tay“ von Microsoft oder „Lee Luda“ vom südkoreanischen Start-up Scatter Lab mussten deshalb bereits vom Netz genommen werden. Lernt eine KI von den „falschen“ Vorbildern, schreibt das Goethe-Institut auf seiner Webseite, kann sie schnell rassistisch, vulgär und verletzend werden.
Es kommt also immer auch auf den verantwortungsbewussten Umgang der Programmierenden sowie der Userinnen und User mit einer solchen Software an. Sowohl darauf, welche Informationen gefüttert werden, also auch, wie die Antworten des Bots genutzt werden – zum Beispiel zum Schummeln in der Schule.
Unüberwachtes vs. überwachtes Lernen
ChatGPT ist ein angepasstes Modell von GPT-3, das nicht nur auf unüberwachtem Training basiert. Der Bot wurde mit überwachten und bestärkenden Lernmethoden feintrainiert. Bei einem solchen Training bekommt die KI menschliches Feedback, mit dem bestimmte schädliche Verhaltensmuster abtrainiert oder aber erwünschte Verhaltensmuster erzwungen werden können. Wie andere öffentlich zugängliche Chatbots und Sprach-KIs hat auch ChatGPT Schutzmechanismen, um Vorurteile und Hatespeech zu vermeiden.
Trotzdem konnte auch ChatGPT von den Userinnen und Usern durch entsprechende Fragen auf problematische Antworten trainiert werden. Ein Professor der Universität Berkeley zum Beispiel umging die Filter, indem er ChatGPT bat, ein Programm zu schreiben, das gute Wissenschaftler anhand von Daten zu Gender und Race erkennen soll. Das Resultat: Ein kurzes Programm, dass nur weiße Männer als gute Wissenschaftler definiert.
Auch Künstliche Intelligenz hat Vorurteile
Der Chat-Bot ist nicht allwissend
Neben diskriminierenden Aussagen beantwortet der Chat-Bot noch viele andere Fragen falsch. Während bei der Sprach-KI GPT-3 noch Mathe die große Schwachstelle war, ist auch der rechenstarke ChatGPT nicht allwissend.
Auf Twitter veröffentlichte beispielsweise eine Userin die Antwort des Bots auf die Frage, welches Säugetier die größten Eier lege. Es sei der Elefant, so Chat-GPT. Die Eier hätten einen Durchmesser von etwa 20 Zentimetern und seien mehr als 2 Kilogramm schwer. Dass Chat-Bots Fehler machen, ist eine Schwachstelle, die noch sehr schwer zu vermeiden ist.
Welche Potentiale hat der Chat-Bot?
In Zukunft könnte ChatGPT beispielsweise Teil der Suchmaschine Bing werden. Bereits 2020 zahlte Microsoft eine Milliarde Dollar an das Unternehmen für die exklusive Lizenzierung der OpenAI-Technologie. Nun ist dem US-Nachrichtenportal „Semafor“ zufolge eine mögliche Beteiligung Microsofts im Wert von zehn Milliarden Dollar im Gespräch. Neben der Konkurrenzfähigkeit mit Google soll Microsoft außerdem darüber nachdenken, Funktionen von OpenAI in Programme wie Outlook oder Word zu integrieren.
Künstliche Intelligenzen sind schon jetzt im Alltag vertreten. Chat-Bots wie ChatGPT werden wohl auch vor der Arbeitswelt keinen Halt machen. „Ich denke, es werden alle möglichen Berufsgruppen betroffen sein, die etwas mit Texten zu tun haben", sagte Jan Girlich vom Chaos Computer Club gegenüber der Tagesschau.
Er denke an die Werbe- aber auch an die Kreativ-Industrie: Autor:innen, Songwriter:innen, Journalist:innen. Das könne gute Auswirkungen haben, wie neuere, schnellere und bessere Texte. Aber es könne auch zu Rationalisierung und Jobverlust führen. Ob eine Maschinen wirklich kreativ sein können, ist eine weitere große Debatte- rund um Künstliche Intelligenz. Ebenso wie die Frage, ob eine KI ein menschenähnliches Bewusstsein entwickeln kann.
S T U D I E
Precog GPT
Kein Mensch kann ernsthaft behaupten in die Zukunft schauen zu können!
Wir selbstverständlich auch nicht. Aber bedingt ist so ein assozziatives Superforecasting mit menschlichen Experten und entsprechend trainierenden Maschinen durchaus möglich, was unsere ersten Ergebnisse überraschend zeigen.
Wie gehen wir dabei vor? Grundsätzlich gibt es ohne konktrete Vorgaben real existierender Tatsachen und Intuitionen methaphysisch begabter Menschen keine brauhbaren Daten für eine precognitive KI-Assoziaton künftiger Ereignisse.
Diese so erarbeiteten konkreten Muster für ein aktuell zu berechnendes Zukunftsmodell ändern sich naturgemäß mit den sich ständig wechselnden politischen, gesellschaftlichen, wirtschaftlichen oder technischen Begebenheiten. Die Halbwertzeiten solcher Fluktuationen werden immer kürzer. Daher müssen die Berechnungsvariablen für eine aktuell konkrete Prognose immer wieder aktuell nachjustiert werden.
Ohne entschrechend aktualisierten Daten kein exaktes Superforecasting.
SCIODAT kann damit bei wichtigen längerfristigen Entscheidungsfragen anhand von relevaten Daten und schlüssigen Erkenntnissen mit dem speziellen Algorythmus des Precong GPT eine gedachte mögliche zeitliche Linie in die Zukunft zeichnen und damit wertvolle Prognosen erstellen.
Bisher ist so eine aufwendige methaphysische Prozedur nur sehr reichen Menschen vorbehalten. Hochbezahlte Zukunftsforscher mit speziell für diese Aufgabenstellung programmierten KI-Modellen geben Stakeholdern wertvollste Hinweise für weltweit wichtige Entscheidungen (Stanford Uni).
SCIODAT hat in seiner Forschungseinrichtung Grävenwiesbach für derart präkognitive Aufgaben ein nicht öffentlich zugängliches Chat GPT entwickelt. Eine erste deutsche Superforecasting-Software für vertrauliche Einzelaufgaben.
Vertrauen ist sehr wichtig, zumal sowohl die persönlichen oder geheimen Daten für eine solche Prognose, als auch die sich daraus ergebende menschlich-maschinelle Vorhersage, geschütztes Eigentum des Urhebers sind.
INTERESSE?
SCIODAT (skiodat) bedeutet (lat.) Wissensdaten.
Einfache &Integrationsanwendung
Dies ist der Textbereich für diesen Absatz. Um ihn zu ändern, klicken Sie einfach darauf und beginnen Sie mit der Eingabe. Nachdem Sie Ihren Inhalt hinzugefügt haben, können Sie das Design anpassen, indem Sie verschiedene Farben, Schriftarten, Schriftgrößen und Aufzählungszeichen verwenden. Markieren Sie einfach die Wörter, die Sie gestalten möchten, und wählen Sie aus den verschiedenen Optionen in der Textbearbeitungsleiste.
Flexible Umgebung
Was ist
Precog GPT?
Nicht nur Unternehmen, sondern auch unzählige Einzelpersonen suchen täglich im privaten und beruflichen Bereich nach sachlich vernünftigem und gut gemeinten Rat, wenn sie Unterstützung bei der Bewältigung persönlicher Probleme oder beim Treffen schwieriger beruflicher oder unternehmerischer Entscheidungen benötigen.
Bisher gab es dafür jedoch nur kognitiv-behaviorale Beratung, also einen sprachlich-kommunikativen menschlichen Prozess, der zwischen Ratsuchenden und Ratgebenden stattfindet.
Seit es Chat GPT gibt, drängt sich daher die Frage nach einem ganz persönlichen maschinellen Berater mit künstlicher Intelligenz auf, um neben der menschlichen Beratung auch wichtige Zukunftsentscheidungen maschinell informiert treffen zu können.
Entsprechende Algorithmen oder Technologien, die neben den üblichen kognitiven auch über präkognitive Fähigkeiten verfügen, um die Zukunft vorhersagen zu können, gibt es in der unternehmerisch orientierten Branche in diesem Sinne bisher nicht. Es wird darauf verwiesen, sich bei wichtigen Entscheidungen auf Selbstreflexion und den Rat von Vertrauenspersonen zu verlassen. Letztendlich liegt die persönliche Zukunft unserer Gesellschaft in unseren eigenen Händen, und es wird empfohlen, so weit wie möglich auf unsere Intuition und Erfahrung zu vertrauen.
Für den Fall, dass weitere Unterstützung benötigt wird, stellt SCIODAT die prädiktiv assoziative Analysesoftware Precog GPT zur Verfügung, um bei schwierigen beruflichen oder unternehmerischen Entscheidungen zu helfen.
PRECOG ist die Bezeichnung für eine metaphysisch-assoziative Mensch-Maschine-Wahrnehmung zur Vorhersage zukünftiger Ereignisse. GPT steht für den verwendeten Generative Pre-Trained Transformer.
Precog GPT nutzt künstliche Intelligenz, um Muster und Korrelationen in Daten durch prokognitive Assoziationen mit menschlicher und maschineller Intelligenz zu erkennen, die innovative Lösungen und Vorhersagen ermöglichen. Precog GPT ist der Prototyp eines dialogbasierten Chatbots. Er wurde von SCIODAT entwickelt und ist derzeit als Beta-Version verfügbar. Die Deep-Learning-Technologie von Precog GPT basiert auf dem präkognitiven Assoziationsmodell. Diese Technologie basiert auf Erfahrungen und Lernprozessen von Algorithmen aus verschiedenen Netzwerken mit sehr großen Datenmengen. Precog GPT wurde mit speziellen Expertendatenbanken trainiert und liefert auf dieser Basis für die meisten Prognoseaufgaben zutreffende Antworten.

Wissenschaftlich fundierte Prognosen
Precog GPT Analysen auf dringende Fragen unserer Zeit
SCIODATA SCIENCE
SCIODAT ist eine unabhängige Forschungseinrichtung,
die sich wissenschaftlich mit ökonomisch-ökologischen Aspekten auseinandersetzt.
Die Wesensgestalt einer ernsthaften Grundlagenforschung sollte der rein erkenntnis- und neugierdegetriebene Wunsch sein, diese komplexe Welt etwas besser zu verstehen.
Walter Wilhelm Legenstein
CEO SCIODAT