Zum Hauptinhalt springen

#060 Echte Dummheit gegen künstliche Intelligenz

a confused young man

Heute zu Gast im CM MAGAZIN: Holger Klein (Öffnet in neuem Fenster)

⬇️ Die 🎧-Podcast-Version zum Hören unten am Ende des Artikels ⬇️

Die Themen:

  • Heißer Tipp: Vortrag vom 9. März #ki

  • 5µ MRT #news

  • Popcorn-Time: Prozesse, so viele Prozesse #news #ki

  • StableLM - Large Open-Source Language Model #news #ki

  • Echte Dummheit schlägt Künstliche Intelligenz #ki

  • Präsenzsensorik #news #tech #smarthome

  • Two-point-seven Jiggawatts #news

## Die Hausmeisterei

Moin moin, ich hatte euch ja versprochen, dass die Releases etwas holprig werden. Der Podcast zu dieser Ausgabe ist schon ein paar Tage im Kasten, aber dann kam der Pellworm-Urlaub dazwischen. Eigentlich wollte ich das ja dort dann fertig schneiden, aber Schafe, Deich und Fischbrötchen waren einfach stärker.

Aber hier sind wir mal wieder. Dafür kann ich euch versprechen, dass es nächstes Wochenende und möglicherweise das Wochenende drauf kein CM MAGAZIN geben wird, weil der Klostergeister-Workshop das einfach nebenher nicht zulässt. Klostergeister ist seit 15 Jahren unser jährlicher Fotoworkshop im Donautal, dieses Jahr sind über 30 Fotografinnen und Fotografen angemeldet und wir werden uns eine Woche lang von morgens bis abends mit Fotografie beschäftigen. Alle wohnen vor Ort, wir werden im Haus verpflegt. Die Location ist wunderschön und gemeinsam mit Boris Nienke werden wir alle Hände voll zu tun haben, die Meute nicht nur zu bändigen, sondern auch Wissen zu vermitteln und eine Atmosphäre zu schaffen, in der alle Spaß und Lust am Lernen und am Experimentieren haben. Daneben noch ein CM MAGAZIN zu produzieren wäre für alle Seiten nicht fair. Für euch nicht, weil ich die Qualität nicht aufrecht halten könnte und für den Workshop nicht, weil ich meine Aufmerksamkeit noch weiter teilen müsste. Also habe ich mich entschieden, ein kurzes Päuschen zu machen. Ich hoffe, ihr seht es mir nach.

Es gab zum Magazin auch eine Beschwerde, in einer der letzten Podcastfolgen hatte ich offenbar was Falsches gesagt. Ich sag mal so: Generell gilt, dass wer Fehler findet, die auch behalten darf. Bzw. wer Fehler im Audio findet, darf mal kurz in die Texte schauen, also in die Shownotes, die schreibe ich nämlich immer nach der Aufnahme und falls im Eifer des Gefechts im Audio mal was verdreht war, dann sind die Chancen groß, dass die Shownotes etwas besser ge-fact-checked sind als der Podcast.

## Heißer Tipp: Vortrag vom 9. März

(Quelle: https://youtu.be/xoVJKj8lcNQ (Öffnet in neuem Fenster))

Kommentar:

Okay, bevor die Diskussion mit Holgi beginnt, hier noch ein Video, das mir erst nach der Aufnahme untergekommen ist, obwohl es schon fast 2 Monate alt ist. Ich halte das Video für so wichtig, dass ich es an den Anfang dieser Sendung packe und es euch allen wärmstens ans Herz lege. Das Video gibt's auch als Audio-Podcast-Version.

Tristan Harris und Aza Raskin vom Center for Humane Technology diskutieren in einem Vortrag vom 9. März 2023 (quasi schon echt alt in KI-Jahren) über die Risiken von KI für eine funktionierende Gesellschaft. Und ja, das könnte man jetzt als Doomerei abtun, da sind dann aber doch einige Punkte, die ich für extrem valide halte und deshalb möchte ich euch das Video ganz heiß ans Herz legen. Es gibt auch eine Podcast-Version davon (Öffnet in neuem Fenster)

Mir geht es dabei auch gar nicht drum, Ängste zu schüren, sondern einen weiteren Blickwinkel zu zeigen, der neben den vielen coolen Dingen, die mit KI heute möglich sind, auch mal die Gefahren thematisiert. Und das durchaus fundiert.

In dem Vortrag geht es z.B. um Incentives, wie der Wettlauf der Firmen funktioniert, wie die Psychologie in unseren Entscheidungen mitspielt, wie die Einführung neuer Technologien neue Verantwortung erfordert, und letztendlich was wir tun können, damit das KI-Rennen am Ende gut für die Menschheit ausgeht.. denn (auch das eine Information aus dem Video) die Hälfte der KI-Forscher glauben, dass es eine größer als 10%ige Chance gibt, dass die KI das Ende der Menschheit bedeutet.

Schaut's euch an, hört's euch an.

## 5µ MRT

(Quelle: https://reddit.com/r/Futurology/comments/12qcw0x/mri_brain_images_just_got_64_million_times/ (Öffnet in neuem Fenster))

Kommentar:

Neben den vielen KI-Ankündigungen war das hier mein persönlicher holy-shit-Moment der letzten Wochen. Die Duke University hat ein MRT entwickelt, das so scharfe Bilder liefern kann, dass es Neuronen und Nervenverbindungen im Gehirn sehen kann. Allerdings derzeit nur von Mäusen. Die Technologie könnte das Verständnis von Gehirnstrukturen revolutionieren, muss aber für die Verwendung am menschlichen Gehirn noch hochskaliert werden, was noch Jahre dauern kann.

## Popcorn-Time: Prozesse, so viele Prozesse

Kommentar:

Mal schauen was zuerst greift, Rechtsstreitigkeiten oder eine Regulierung, die von so vielen gefordert wird. KI-Unternehmen wie OpenAI/Microsoft und Stability AI sind rechts und links in Urheberrechtsklagen verwickelt. Die Klagen betreffen Trainingsdaten, Softwarepiraterie und Urheberrechtsverletzungen. Während sich die KI-Unternehmen auf "Fair Use" berufen (gibt's bei uns nicht, höchsten Zitatrecht), sehen die Rechteinhaber Urheberrechtsverletzungen. Adobe schwingt sich währenddessen mit ihrem "ethischen Training" empor, bei dem sie nur Daten von Adobe Stock verwenden. Damit haben sie aber einen deutlich kleineren Traininsdatenpool als die anderen und die Ergebnisse sind daher bei weitem noch nicht so gut wie z.B. das, was Midjourney schafft. Microsoft und OpenAI haben übrigens starke finanzielle Verbindungen, und ob Elon Musk die KI nur stoppen will, weil er Angst um die Menschheit hat, oder ob doch Konkurrenzüberlegungen dahinter stecken, ist noch nicht ganz klar. Reddit macht währenddessen seine API kostenpflichtig. Die Auswirkungen betreffen KI-Firmen, Künstler, Twitter und uns alle.

## StableLM - Large Open-Source Language Model

(Quelle: https://stability.ai/blog/stability-ai-launches-the-first-of-its-stablelm-suite-of-language-models (Öffnet in neuem Fenster))

Kommentar:

Der nächste LLM-Spieler betritt den Ring und geht Open-Source: Stability AI hat StableLM, ein neues Open-Source-Sprachmodell, veröffentlicht. Das Modell ist in Versionen mit 3 und 7 Milliarden Parametern verfügbar und soll in größeren Versionen folgen. Es basiert auf einem experimentellen Datensatz, der dreimal größer als The Pile ist. StableLM zeigt trotz seiner geringen Größe eine hohe Leistung bei Gesprächs- und Codierungsaufgaben. Die Modelle sind für kommerzielle und Forschungszwecke nutzbar und unterliegen der CC BY-SA-4.0-Lizenz.

## Echte Dummheit schlägt Künstliche Intelligenz

(Quelle: https://twitter.com/venturetwins/status/1648410430338129920?s=12&t=33atk6Cg2oPBY0NR34IlGA (Öffnet in neuem Fenster))

Kommentar:

Echter Dummheit ist die künstliche Intelligenz einfach noch nicht gewachsen...

## Präsenzsensorik

(Quelle: https://youtube.com/watch?v=DZHQwkiFaxc&feature=share (Öffnet in neuem Fenster))

Kommentar:

Gute Präsenzerkennung ist der heilige Gral der Home-Automatisierung. Bewegungsmelder sind toll, schalten aber irgendwann halt das Licht wieder ab, wenn man z.B. ohne viel Bewegung auf der Toilette sitzt. Occupancy-Sensoren zählen meist nur mit, wieviele Menschen ins Zimmer hinein und wieder hinausgegangen sind. Echte Präsenzerkennung kann mehr, z.B. ein Zimmer im mehrere Zonen aufzuteilen und dort dann zuverlässig Menschen zu detektieren. Stellt euch vor, dass das Licht in der Sofa-Ecke nur dann angeht, wenn ihr euch dort hinsetzt. Und es bleibt so lange an, bis ihr aufsteht und woanders hingeht. Oder euch folgt die Musik durchs Haus.

Habe es mangels Anwendungsfall noch nicht persönlich getestet, aber das hier sieht interessant aus: Das Aquara FP2 ist neu und spricht mit HomeKit, Amazon, Google und IFTTT. Es arbeitet mit mm-Wave-Sensoren (60 GHz Radar) für Multi-Personen-Erkennung und Multi-Zonen-Steuerung. Es soll bis zu 5 Personen gleichzeitig erkennen und kann pro Raum 30 Zonen erfassen, die alle z.B. in HomeKit als Präsenzsensoren angezeigt werden. Zusätzlich verfügt es über einen Helligkeitssensor. Aquara FP2 eignet sich für einfache Automatisierungen und kann sogar Sturzerkennung bieten, wenn es über Kopf montiert wird. Sturzerkennung ohne diese lästige moderne Uhr am Arm zu tragen. Für alte Leute vielleicht die Rettung.

## Two-point-seven Jiggawatts

(Quelle: https://twitter.com/energy_charts_d/status/1649319733630566401?s=20 (Öffnet in neuem Fenster))

Kommentar:

Noch ein kleiner Lichtblick am Horizont, diesmal aus der Energiewirtschaft: Im ersten Quartal 2023 verzeichnete Deutschland einen bemerkenswerten Anstieg der installierten Solarleistung, und zwar wuchst die um 2,7 Gigawatt (GW). Für 2024 hat die Bundesregierung ein ehrgeiziges Ziel von 88 GW installierter Solarleistung gesetzt.

## Und Tschüs

So, das war's für diese Woche, herzlichen Dank für eure Zeit und Aufmerksamkeit. Ein herzliches Danke an Jonathan, der hat seine Zen-Mitgliedschaft erneuert. Und euch, die ihr das Magazin unterstützt auch ein ganz heißes Danke, denn ohne eure finanzielle Unterstützung wäre der Aufwand, der hier fast jede Woche reinfließt fast nicht zu verargumentieren. Also ein ganz herzliches Danke, ihr seid toll und schaut alle sehr fesch aus und ihr tut mir einfach gut.

Habt eine tolle Woche und ich melde mich wieder, sobald sich der jährliche Workshop-Trubel gelegt hat.

PS: Du kannst dieses Magazin gratis lesen, aber gerne auch finanziell unterstützen. Dafür bekommst Du einen persönlichen Feed für Deinen Podcast-Player und die Podcastfolgen vor allen anderen.

Der Podcast zum Hören. In dieser Folge zu Gast bei Chris Marquardt: Holger Klein

Mit Mitgliedschaft den Podcast sofort im eigenen Player hören, sonst ein paar Tage später hier. Deine Unterstützung finanziert dieses Projekt ❤️ 🙏

Zu den Paketen (Öffnet in neuem Fenster)

0 Kommentare

Möchtest du den ersten Kommentar schreiben?
Werde Mitglied von CM MAGAZIN und starte die Unterhaltung.
Mitglied werden