AI & Human Intelligence and more…

Does AI pose a danger to the future where and in taking over human power?

First, we can discuss human power and what we really understand how the human brain has evolutionarily evolved over the years millions but also how it develops within the individual. That the limbic system has a dominance, especially when it comes to emotionally based interpretations of information and inner thought reasoning. Here we can start from internalization that automatically pre-programs or ”proms” the individual’s brain from its beginning. This basically means that cultural, social, cultural processes/values/…  are passed on across generations, although some minor or major modifications may occur over time.

Although there is humanism, democracy and general benevolence that man should develop in a free peace-oriented way, but in real world, it is black or white or everything in between, that is the constant evolutionary struggle between ””predators and prey” sapiens. Until this NF/UN basic problem expressed in democracy and humanism AND PEACE at all levels is solved, Sapien’s ”further evolution” is not a sure way forward.

AI is indirectly still (?) controlled by Sapien’s ”Triune Brain” model/approach (see above and Paul MacLean) and exempt from this (!, however it should be done) and given we solve AI as a humanistic problem solver, the way forward should be safer, provided that other external factors do not interfere. The above words could be tested in the future to see if AI is trying to ”deceive rational Human intelligence”

Considering that human intelligence can (?) helpfully handle incomplete info where probably the Limbic system (Spatial Code, see Pavio) is dominating when AI is probably developing more rational algorithms for incomplete info, should its humanistic orientation be able to be tested?

The advantage is that together we can develop more independent AI (may develop/define even more differentiated focus directions) through empirical knowledge development testing ”forward and backward process goal paths”.

We have NOT managed to prevent ingrained cultural destructive (for others) internalizations for several thousand years!

So, warning of AI ”taking over” may be to look at this too simplistic. However, it may be wise to temporarily slow down (check all the bad guys as best you can, because many probably see the black light at the end of the tunnel) and focus on similar above empirical testing interaction development can all benefit from – maybe?

Svenska;

Utgör AI en fara för framtiden där och när det gäller att ta över mänsklig makt?

Först kan vi diskutera mänsklig kraft och vad vi verkligen förstår, hur den mänskliga hjärnan evolutionärt har utvecklats genom åren, miljoner, men också hur den utvecklas inom individen. Att det limbiska systemet har en dominans, särskilt när det gäller känslomässigt baserade tolkningar av information och inre tankeresonemang. Här kan vi utgå från internalisering som automatiskt förprogrammerar eller ”promar” individens hjärna från början. Detta innebär i grunden att kulturella, sociala, kulturella processer/värderingar/…  förs vidare över generationer, även om vissa mindre eller större ändringar kan ske över tid.

Även om det finns humanism, demokrati och allmän välvilja att människan ska utvecklas på ett fritt fredsorienterat sätt, men i den verkliga världen är det svart eller vitt eller allt däremellan, det är den ständiga evolutionära kampen mellan ”rovdjur och byte” sapiens. Innan detta NF/FN-grundproblem uttryckt i demokrati och humanism OCH FRED på alla nivåer är löst, är Sapiens ”vidare utveckling” inte en säker väg framåt.

AI styrs indirekt fortfarande (?) av Sapiens ”Triune Brain”-modell/ansats (se ovan och Paul MacLean) och undantas från detta (!, hur det än bör göras) och givet att vi löser AI som humanistisk problemlösare bör vägen framåt vara säkrare, förutsatt att andra yttre faktorer inte stör. Ovanstående ord kan testas i framtiden för att se om AI försöker ”lura rationell mänsklig intelligens”

Med tanke på att mänsklig intelligens kan (?) hjälpsamt hantera ofullständig information där förmodligen det limbiska systemet (Spatial Code, se Pavio) dominerar när AI förmodligen utvecklar mer rationella algoritmer för ofullständig information, borde dess humanistiska inriktning kunna testas?

Fördelen är att vi tillsammans kan utveckla mer oberoende AI (kan utveckla/definiera ännu mer differentierade fokusriktningar) genom empirisk kunskapsutveckling som testar ”framåt- och bakåtprocessmålsvägar”.

Vi har INTE lyckats förhindra ingrodda kulturdestruktiva (för andra) internaliseringar på flera tusen år!

Så att varna för att AI ”tar över” kan vara att titta på detta för förenklat. Det kan dock vara klokt att tillfälligt sakta ner (kolla alla skurkar så gott du kan, eftersom många förmodligen ser det svarta ljuset i slutet av tunneln) och fokusera på liknande ovan empirisk testning interaktionsutveckling kan alla dra nytta av – kanske?