Trending Misterio
iVoox
Descargar app Subir
iVoox Podcast & radio
Descargar app gratis
El primer café
Una idea para limitar el poder destructor de la IA. Oriol Quintana

Una idea para limitar el poder destructor de la IA. Oriol Quintana 4m2g2i

1/6/2023 · 09:07
0
59
El primer café

Descripción de Una idea para limitar el poder destructor de la IA. Oriol Quintana 324w6f

Dicen las voces expertas que han desarrollado la inteligencia artificial en los últimos años que podría tener capacidad para exterminar la humanidad. Tal es su poder que puede ser tan destructora, afirman, como una guerra nuclear o una pandemia global. Por eso, piden a las autoridades que la regulen de manera eficaz. ¿Cómo? Oriol Quintana, doctor en Humanidad y profesor de IQS nos lanza una primera propuesta. w363o

Lee el podcast de Una idea para limitar el poder destructor de la IA. Oriol Quintana

Este contenido se genera a partir de la locución del audio por lo que puede contener errores.

El primer café de la mañana nos lo tomamos en radio echa yo sé que muchos que muchas de ustedes están algo perdidos pérdidas con esto de la inteligencia artificial yo también lo estoy créanme que cada vez que leo algo nuevo sobre la inteligencia artificial me asusto todavía un poquito más esta semana los creadores los inventores los que han desarrollado esta herramienta para facilitar los el día a día para facilitar la vida para que la tecnología sea todavía más inteligente de lo que ya hay han dicho atención han dicho que es peligroso que la inteligencia artificial es tan peligrosa para la humanidad como una guerra nuclear o como una pandemia imaginen se ustedes venga vamos a imaginarnos que ustedes crean una herramienta con la intención de mejorar la vida los demás y que cuando en la herramienta serán cuenta de que con esa herramientas se puede destruir a la humanidad que podemos desaparecer los seres humanos que puede ser tan peligrosa insisto como una guerra nuclear o una pandemia es para echarse las manos a la cabeza o no debemos estar tan tan asustado por la inteligencia artificial como por una guerra nuclear vamos a llamar a esta hora de la mañana un doctor en humanidades profesor de y cuece oriol quintana de honorarios muy buenos día muy buenos días es tan peligrosa la inteligencia artificial de verdad es tan peligrosa como dicen sus propios creadores bien cuando la comparación con una guerra nuclear realmente asusta mucho y que convoque rápidamente la imagen de un robot maligno controlando todos los ejércitos mundo y lanzando los compra contra la humanidad yo creo que antes que llegar a este punto tablet los peligros de la inteligencia artificial con un poco de un poco más sutiles directamente a la extradición de la humanidad por culpa de una guerra del nuevo robot sido es algo un poco previo piden estos creadores de la inteligencia artificial a los gobiernos a las instituciones públicas que que regulen ya todo lo que tiene que ver con esta inteligencia con este desarrollo tecnológico por donde se debe empezar por dónde empezar don oriol a reflexionar sobre cuál es el límite el límite ético podríamos decir de la inteligencia artificial para evitar que que nos instruye como ser humano mira de clarísimo y creo que muy seria muy sencillo implementar algunos especialistas el poder distinguir siempre y uno está interactuando con la inteligencia artificial el texto que está leyendo quien ha sido fabricado por la inteligencia inicial las imágenes que me llegan a la persona aparentemente con la que está hablando de realmente una persona o es una inteligencia artificial la primera regulación que establecer saber si con quienes interactuando realmente una persona agencia artificial porque aquí yo creo que está al peligro verdaderamente la inteligencia artificial se ha desarrollado tan rápido prácticamente invisible de la interacción humana y eso era curiosamente es la definición que dio touring de inteligencia artificial los años cincuenta aplique perfectamente y eso es mucho más peligroso de la que parece por qué es tan peligroso pues mire por qué como dice uno de los profesores mar mar exclusión de esta cuestión no dice los derechos humanos reaccionamos sobre todo a las historias que nos contamos y de la capacidad de emocionar nos comunique pues los relatos los que nos explican el mundo y los al final en los que confiamos para ser gobernador entonces si de repente lo la inteligencia artificial es tan increíble y tan confiable como como los relatos o más de los políticos nuestro vecino entonces los hermanos y renunciando a gobernar nosotros mismos que horror estamos empezando a confiar a que la inteligencia artificial esto vaya necesariamente la extinción de la humanidad no a la extinción física de la humanidad pero sí que puede llevar a que la renuncia de gobernarse a sí misma y eso fastidiar yo cuando adicto al principio son máquinas para hacernos la vida más fácil hay está también esta límite por claro una cosa muy es dejar gobernar claro es muy cómoda y muy cómodo que otro haga las cosas por mí no y dejarme gobernar pero cuál es el límite entre ceder toda mi humanidad a una máquina no sería estamos hablando que a mi me parece relativamente la verdad que me que me parece esto y sesión antes te preguntan preguntando un experto cuál es el límite entre cederme a mi misma una máquina para que sea la máquina

Comentarios de Una idea para limitar el poder destructor de la IA. Oriol Quintana 1p1i3w

Este programa no acepta comentarios anónimos. ¡Regístrate para comentar!
Te recomendamos
Ir a Mundo y sociedad