Humanistische Dokumentation von KI- Anwendungen (Ergänzung zu Richard David Precht)

Juli 16, 2021

Dieser Blogeintrag bezieht sich ergänzend auf das Buch "Künstliche Intelligenz und der Sinn des Lebens" von Richard David Precht. 

Precht stellt im Buch fest, dass der Trans- und Posthumanismus Menschlichkeit in seinem vielschichtigen Kontext verklärt und den Menschen zum Wohle der Innovation versachlicht. Innovation und Fortschritt sind, so Precht, kein Synonym. Der Transhumanismus, welcher KI gestützte Systeme als evolutionär vorherbestimmt sieht, erkennt nicht, dass KI viele Aspekte des menschlichen Lebens nicht ersetzen kann und auch nicht den erhofften Fortschritt liefert. Software und KI sollten dem Menschen als unterstützende Werkzeuge dienen. 

Meine Software Technische Sichtweise verleitet meine Kollegen oftmals zum utilitaristischen und pragmatischen Denken, was und wie lässt sich etwas softwaretechnisch und nun auch KI gestützt implementieren. Meine ergänzende Idee sind somit einfache Fragen, welche man sich vor und während der Umsetzung eines KI- Projektes stellen sollte und die Beantwortung dieser in die technische Dokumentation mit einbezieht. Sie sollen die Sinnhaftigkeit des Werkzeuges KI für die Menschen, aber auch die Nicht-Sinnhaftigkeit klären und sollen die Sichtweise darauf lenken, die Software einen passenden Platz innerhalb eines Prozesses zu geben und nicht dem Menschen dem Platz zu zuordnen. Das Denkframework richtet sich an Entwickler, aber auch Nutzer KI gestützter Systeme.

Denk- Framework

Grundsätzliche Festlegungen, wozu KI nicht in der Lage ist:

  • Bewusstsein: KI weiß nicht was sie selbst ist und was sie macht, sie hat eine Zielsetzung oder Problem was es zu erreichen oder zu lösen gilt
  • moralische Einschätzungen: "moralischer Code" ist eine Simplifizierung von kulturellen Maßstäben, welche auf die gesamte Menschheit oder Kulturkreis eingekürzt werden. Individuelle moralische Werte werden missachtet. KI kennt keine Kultur und Individualität. Wer gibt vor was Moral ist? Moral != Gesetz! 
  • Unterbewusstsein: KI ist absolut transparent, die Regeln ihres Handelns sind in Code festgeschrieben. Auch wenn sich irgendwann das Handeln von KI der menschlichen Logik entzieht,  ist es für die KI selber nachvollziehbar und anhand mathematischer Regeln transparent. Der Mensch hingegen ist sich mancher genauer Verhaltensweisen nicht bewusst, warum er in diesem Maße nun handelt.
  • Irrationale Entscheidungen: Entscheidungsfindung beruht auf absoluter Rationalität von stochastischen Einschätzungen. Es ist kein Bauchgefühl vorhanden.
  • Instinktive Reaktionen: Aktionen die fernab von dem Pfad der Zielsetzung liegen und nicht der Erfüllung des vorher bestimmten Ziels liegen werden nicht ausgeführt
  • Verständnis zu Individuen: KI ist weder ein Individuum noch respektiert es andere, erkennt oder versteht Individualität
  • Situative Neuausrichtung: KI beurteilt neue Inputs aufgrund alter Daten und statistischen Wahrscheinlichkeiten, "Denkmuster" bleiben somit erhalten
  • Kreativität: "etwas zu erschaffen, was neu oder originell und dabei nützlich oder brauchbar ist", NEU und ORIGINELL wird an ALTEN Werten durch KI bemessen

Allgemeine Fragen für Entwickler und Nutzer sollen auch im Diskurs geklärt werden, die individuelle Beantwortung der Fragen sollte berücksichtigt und nicht generalisiert werden.

  • Welchen Platz nimmt die KI im Prozess ein?
  • Was KANN sie NICHT im Gegensatz zum Menschen?
  • Was SOLL sie NICHT im Prozess einnehmen?
  • Differenzen zwischen dem können und dem sollen für Entwickler und Nutzer?

Fragen für Entwickler beziehen sich auf die technische Umsetzung

  • Werden menschliche Individuen als objektifizierte Klassen generalisiert?
  • Aus welchen Attributen setzen sich Individuen im System zusammen?
  • Aus welchen Input-Datensätzen bestehen meine Prognosen? Sind diese übertragbar oder generalisiert?
  • Wird versucht Grenzen technischer Umsetzbarkeit KI, gemessen an den festgelegten Grenzen (siehe oben), zu überschreiten?

Fragen für Nutzer beziehen sich auf die individuellen Empfindungen und Wünsche:

  • Welches Problem löst die KI?
  • Ist das gelöste Problem überhaupt ein Problem für MICH?
  • Was soll die KI NICHT für mich machen?
  • Was macht sie trotzdem für mich?
  • Nimmt die KI mir Entscheidungen ab oder nimmt sie mir die Entscheidungsfreiheit?

Abschließende Frage:

Wie intelligent ist künstliche Intelligenz? Ist es die Summe aller Neuronen? Die Performanz aller Berechnungen und Speicherkapazität?

Wenn KI so wenig mit echter menschlicher Intelligenz zutun hat, warum heißt es dann KI?

"Maschinelles Lernen" oder "Machine Learning" wird der Vorstellung von performanten Vorhersagealgorithmen der realen Anwendungsdomäne gerechter.


Balance Agile and Plan-Driven Methods: How agile or plan-driven should or can my project? (five critical factors)

April 28, 2021

five critical factors by Richard Turner and Barry Boehm 

Barry Boehm and Richard Turner offer a model, which with the help of critical factors, rates the degree of agility or degree of planning drift of a project. These factors are as follows:

  • Personnel: Personnel describes the development skills of teams. There the Cockburn scale is used, which in a simplified way represents the abilities the developer divides into level 1: junior to level 3: senior. An agile approach requires that at least 30 percent of developers have a level 2 or higher. A plan-driven approach comes with less experienced employees.
  • Dynamism: The dynamism factor describes the rate of change of Conditions. Agile developments make sense if at least 30 percent of the defined requirements change per month. If the value is less than 30 percent plan-driven methods are preferable.
  • Culture: describes the working culture of individuals. When employees are That is to feel at ease when they are given defined roles and tasks to prefer a plan-driven approach. However, people are used to one a high degree of freedom and decision-making power over their work area the agile approach is more advantageous.
  • Size (team size): The team size is a deciding factor when choosing the team Method. The bigger the team, the sooner a plan-driven one comes along Approach in question.
  • Criticality: This factor refers to the critical level of the Application and the associated risk in the event of an error. Bohm points out, that there is a very critical system when there is a life-threatening risk. In the case of critical systems, plan-driven procedures are more likely to be used.

Read more