{"id":70167,"date":"2023-05-04T08:26:49","date_gmt":"2023-05-04T14:26:49","guid":{"rendered":"https:\/\/megavision.com.sv\/?p=70167"},"modified":"2023-05-04T08:26:51","modified_gmt":"2023-05-04T14:26:51","slug":"casa-blanca-invita-a-gigantes-de-la-ia-para-hablar-de-alcance-y-regulacion","status":"publish","type":"post","link":"https:\/\/megavision.com.sv\/web\/casa-blanca-invita-a-gigantes-de-la-ia-para-hablar-de-alcance-y-regulacion\/","title":{"rendered":"Casa Blanca invita a gigantes de la IA para hablar de alcance y regulaci\u00f3n"},"content":{"rendered":"\n<p><em>AFP<\/em><\/p>\n\n\n\n<p>La Casa Blanca invit\u00f3 a directivos de empresas avanzadas en inteligencia artificial (IA), como Google, Microsoft, OpenAi y Anthropic,para acudir este jueves a una &#8220;discusi\u00f3n sobre &#8220;los riesgos&#8221; asociados a esta tecnolog\u00eda con varios miembros del Gobierno, entre ellos la vicepresidenta Kamala Harris.\u00a0<\/p>\n\n\n\n<p>&#8220;Nuestro objetivo es tener una discusi\u00f3n franca sobre los riesgos actuales y a corto plazo que percibimos en los desarrollos de IA&#8221;, dice la invitaci\u00f3n conocida por la AFP el martes.&nbsp;<\/p>\n\n\n\n<p>El gobierno tambi\u00e9n busca discutir &#8220;pasos para reducir esos riesgos, y otras maneras en que podemos trabajar juntos para asegurarnos de que los estadounidenses se benefician de los avances de la IA mientras est\u00e1n protegidos de peligros&#8221;.&nbsp;<\/p>\n\n\n\n<p>Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) y Dario Amodei (Anthropic) confirmaron su participaci\u00f3n, seg\u00fan la Casa Blanca.&nbsp;<\/p>\n\n\n\n<p>La inteligencia artificial ha estado presente en la vida cotidiana durante a\u00f1os, desde los algoritmos de recomendaci\u00f3n de las redes sociales hasta los electrodom\u00e9sticos de alta gama.<\/p>\n\n\n\n<p>Sin embargo, el deslumbrante \u00e9xito desde fines del a\u00f1o pasado de ChatGPT, la interfaz de IA generativa de OpenAI, una empresa emergente financiada ampliamente por Microsoft, fue el punto de partida para una carrera hacia sistemas cada vez m\u00e1s intuitivos y eficientes, que son capaces de generar textos, im\u00e1genes y c\u00f3digos de programaci\u00f3n cada vez m\u00e1s complejo.&nbsp;<\/p>\n\n\n\n<p>Su lanzamiento despert\u00f3 entusiasmo e inquietudes a una nueva escala. Especialmente cuando Sam Altman, el director de OpenAI, anticip\u00f3 la pr\u00f3xima generaci\u00f3n de la llamada IA &#8220;general&#8221;, donde los programas ser\u00e1n &#8220;m\u00e1s inteligentes que los humanos en general&#8221;.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">&#8211; Sin obligaciones &#8211;<\/h2>\n\n\n\n<p>Los riesgos de la IA van desde la discriminaci\u00f3n por algoritmos hasta la automatizaci\u00f3n de tareas realizadas por humanos, el robo de propiedad intelectual o la desinformaci\u00f3n sofisticada a gran escala, entre otros.&nbsp;<\/p>\n\n\n\n<p>&#8220;Los modelos de lenguaje capaces de generar im\u00e1genes, sonido y video son un sue\u00f1o hecho realidad para quienes quieren destruir las democracias&#8221;, advirti\u00f3 el profesor de UC Berkeley, David Harris, especialista en pol\u00edticas p\u00fablicas e IA.&nbsp;<\/p>\n\n\n\n<p>A fines de 2022, la Casa Blanca public\u00f3 un &#8220;Plan para una Declaraci\u00f3n de Derechos de la IA&#8221;, un breve documento que enumera principios generales como la protecci\u00f3n contra sistemas peligrosos o falibles.&nbsp;<\/p>\n\n\n\n<p>A principios de este a\u00f1o, el Instituto Nacional de Est\u00e1ndares y Tecnolog\u00eda (NIST), un centro afiliado al gobierno, dise\u00f1\u00f3 un &#8220;marco para la gesti\u00f3n de riesgos&#8221; relacionado con la IA.<\/p>\n\n\n\n<p>El presidente Biden dijo el mes pasado que estas empresas &#8220;claramente (&#8230;) deben asegurarse de que sus productos sean seguros antes de ponerlos a disposici\u00f3n del p\u00fablico en general&#8221;, dice la invitaci\u00f3n.&nbsp;<\/p>\n\n\n\n<p>Sin embargo, &#8220;estas directrices y declaraciones no obligan a las empresas afectadas a hacer nada&#8221;, subrayo David Harris, quien fue director de investigaci\u00f3n en IA en Meta.&nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">&#8211; &#8220;Da\u00f1o real&#8221; &#8211;<\/h2>\n\n\n\n<p>Los gigantes de la IA no niegan que existan riesgos, pero temen que se asfixie la innovaci\u00f3n por leyes demasiado restrictivas.&nbsp;<\/p>\n\n\n\n<p>&#8220;Estoy seguro de que la IA ser\u00e1 utilizada por actores maliciosos, y s\u00ed, va a causar da\u00f1os&#8221;, dijo el mi\u00e9rcoles el economista jefe de Microsoft, Michael Schwarz, durante un panel en el Foro Econ\u00f3mico Mundial de Ginebra, seg\u00fan Bloomberg.<\/p>\n\n\n\n<p>Pero pidi\u00f3 a los legisladores que no se apresuren y que cuando haya un &#8220;da\u00f1o real&#8221;, se aseguren de que &#8220;los beneficios de la regulaci\u00f3n sean mayores que el precio para la sociedad&#8221;.<\/p>\n\n\n\n<p>&#8220;La \u00faltima vez que nos enfrentamos a semejante convulsi\u00f3n social debido a las tecnolog\u00edas fue a comienzos de la web 2.0, en los a\u00f1os 2002&#8221;, dijo el mi\u00e9rcoles Lina Khan, presidenta de la Comisi\u00f3n Federal de Comercio, la agencia estadounidense de protecci\u00f3n al consumidor.&nbsp;<\/p>\n\n\n\n<p>Al otro lado del Atl\u00e1ntico, Europa espera liderar de nuevo el camino hacia una regulaci\u00f3n ad-hoc en torno a la IA, como ya los hizo con la ley de datos personales.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>AFP La Casa Blanca invit\u00f3 a directivos de empresas avanzadas en inteligencia artificial (IA), como Google, Microsoft, OpenAi y Anthropic,para acudir este jueves a una&hellip; <\/p>\n","protected":false},"author":6,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[26],"tags":[599,6317,5846],"class_list":["post-70167","post","type-post","status-publish","format-standard","hentry","category-noticias","tag-casa-blanca","tag-gigantes-de-la-ia","tag-inteligencia-artificial-ia"],"_links":{"self":[{"href":"https:\/\/megavision.com.sv\/web\/wp-json\/wp\/v2\/posts\/70167","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/megavision.com.sv\/web\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/megavision.com.sv\/web\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/megavision.com.sv\/web\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/megavision.com.sv\/web\/wp-json\/wp\/v2\/comments?post=70167"}],"version-history":[{"count":1,"href":"https:\/\/megavision.com.sv\/web\/wp-json\/wp\/v2\/posts\/70167\/revisions"}],"predecessor-version":[{"id":70169,"href":"https:\/\/megavision.com.sv\/web\/wp-json\/wp\/v2\/posts\/70167\/revisions\/70169"}],"wp:attachment":[{"href":"https:\/\/megavision.com.sv\/web\/wp-json\/wp\/v2\/media?parent=70167"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/megavision.com.sv\/web\/wp-json\/wp\/v2\/categories?post=70167"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/megavision.com.sv\/web\/wp-json\/wp\/v2\/tags?post=70167"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}