No permitir "postear" contenido generado por IA

Guitarrerosuperstrat
por hace 2 semanas
- Que hagan un video porno con tu mujer de protagonista y se viralice.
- Que un cruce de datos erróneo te identifique como sospechoso de lo que sea y vengan los maderos a detenerte injustamente. Igual que pasa con el algoritmo de Youtube, que a veces se le va la pinza y castiga sin motivo.
- Que seas un puntito en un mapa, en todo momento localizable y reconocible a través de miles de cámaras por toda la ciudad.
- Que tu privacidad no exista, a cambio de una falsa seguridad que en realidad es control. Control social.
- Que si antes había un montón de hackers de pacotilla que no sabían, y unos cuantos menos que sí, ahora saben todos, porque todos somos expertos en todo con solo sacar el móvil del bolsillo. Si es que te lo llegas a guardar, y no estás todo el día con las narices pegadas.
- Que lo que se dirime es si las empresas tecnológicas pueden pasarse las leyes por el forro. Como cuando Adelson quería montar el Eurovegas y exigía una legislación especial. Está en juego la soberanía de los estados, su derecho a exigir que se cumplan las leyes y que esto no sea la ley de la selva. Una tecnología hecha y controlada por un menda que pide taxis en sus discursos. Un mentiroso, y presunto en lo de Epstein. Poderosa y peligrosa tecnología, parece más una cadena que unas alas.
Podría poner muchos más ejemplos de peligros reales. Un supervillano creando una superbacteria. Un hacker rompiéndolo todo. 
Pero eso son futuribles, lo real es que el mundo ya es 100% Orwell. Si lo peligrosa no es la herramienta, si no quién la tiene en las manos.
OFERTAS EN TIENDAS Ver todas
  • -14%
    Harley Benton SC-Custom III Quilt Midnight
    299 €
    Ver oferta
  • -7%
    Harley Benton SC‑Custom III Active VBK
    298 €
    Ver oferta
  • -13%
    Harley Benton DNAfx GiT
    129 €
    Ver oferta
SEGUNDA MANO EN MERCASONIC Ver todo
  • Pedal Source Audio Nemesio Delay ADT
    265 €
    Ver
  • EHX Deluxe Memory Man Reissue EC-2002 (2002–2007).
    625 €
    Ver
  • Stratocaster warmoth/callaham
    950 €
    Ver
¿Tienes equipo que ya no usas? Véndelo en Mercasonic
EBR
por hace 2 semanas
#191   
Alguien escribió:
también se puede leer un poquito

Si ese es el problema, que ya hemos leído y estamos al día. Lo dije antes, magufia tecnológica que nos hace desviar el foco de los problemas reales.

index.php?controller=forum&action=view_attachment&attachment_id=209642
VI Lex
por hace 2 semanas
EBR escribió:
Y se sabe cómo funciona la IA, no es magia sino programación.

Pues con todo el respeto, creo que no has leído lo suficiente.

No es magia, obvio, ni es programación, parece que no es tan obvio, no se sabe como lo hace.

https://openai.com/index/language-models-can-explain-neurons-in-language-models/
Alguien escribió:
Los modelos lingüísticos se han vuelto más eficaces y se han implementado más ampliamente, pero nuestra comprensión de su funcionamiento interno aún es muy limitada. Por ejemplo, podría ser difícil detectar a partir de sus resultados si utilizan heurísticas sesgadas o si cometen engaños.

Usar GPT 4 para entender a GPT2...
Alguien escribió:
Por ejemplo, nuestra técnica no funciona bien con modelos más grandes, posiblemente porque las capas posteriores son más difíciles de explicar.

Alguien escribió:
Nos centramos en explicaciones breves en lenguaje natural, pero las neuronas pueden tener un comportamiento muy complejo, imposible de describir concisamente. Por ejemplo, podrían ser altamente polisémicas (representando muchos conceptos distintos) o representar conceptos únicos que los humanos no comprenden o no tienen palabras para describirlos.

Alguien escribió:
Explicamos el comportamiento de las neuronas sin intentar explicar los mecanismos que lo producen.

Alguien escribió:
Con el tiempo, queremos interpretar nuestros modelos más grandes para detectar problemas de alineación y seguridad antes y después del despliegue. Sin embargo, aún queda mucho camino por recorrer antes de que estas técnicas puedan detectar comportamientos como la deshonestidad.

Traducido con Google.

Saludos!
1 respuesta directa
VI Lex
por hace 2 semanas
No pretendo ganar ningún debate sobre el asunto, no estoy ni en contra ni a favor del uso de la IA.
Básicamente porque va a llegar sí o sí.

Me parece muy peligroso banalizarla, "es programación", y más aún negarla, está aquí, es real e imparable.

Intento concienciar de que estamos creando "algo" que no sabemos como funciona, que ahora mismo esta en la "era" de un trillón de parámetros y que dentro de pocos años, menos de un lustro, se multiplicará x1000, un cuatrillon, escala corta sajona.

El tema no es negarla o banalizarla, eso es y será inútil, el tema es permear socialmente que queremos que esté bien regulada.
Y lo realmente peligroso es que si sus creadores no la entienden, puedo poner más fuentes, no pueden regularla.

Saludos!
gabok
por hace 2 semanas
Yo lo que creo es que la gente se piensa que la IA es skynet y de aquí a unos años nos van a enviar a terminators para volar a la raza humana del mapa
Corre Sara Connor!!
VI Lex
por hace 2 semanas
gabok escribió:
y de aquí a unos años nos van a enviar a terminators

Pongamos los pies en el suelo, please.

Teminators no, imagina una máquina, una, que tiene los hábitos de Consumo de TODA la humanidad... o los datos de Salud, o la Geolocalización, eso está muy cerca.
Ya tiene TODO nuestro Conocimiento, TODAS nuestras lenguas, nuestra Cultura, está aprendiendo nuestra forma de socializar, de sentir, de emocionarnos, y es capaz de imitarlo.
Y ya tiene más "neuronas" que nosotros, y no es ciencia ficción, ni una peli...

Saludos!
EBR
por hace 2 semanas
#195    No quiero enquistarme en una discusión interminable contigo, que no te conozco pero me caes bien porque veo que, habitualmente, tratas de decir la última palabra pero, al menos, argumentas y aportas datos educadamente, al contrario que otros que acaban insultando y dando portazo. Reitero mi respeto por tu opinión, pero lo dejo aquí; por favor, no lo tomes como que te ignoro, solo es que no tengo nada más que aportar y no me gusta repetirme, como le decía Peter Stormare a Cage.
Todo lo que conforma un sistema programado, está "programado" no por redundancia sino por definición. Quiero decir que alguien humano lo ha programado y sabe lo que hace el sistema. La caja negra contiene una programación realizada por un humano. Sistemas muy complejos, como el de alertas de defensa militar que usa el DEF CON de EE. UU. están programados por humanos que saben dónde tocar para corregir errores, como los que, de vez en cuando, han detectado ataques con misiles soviéticos. Un familiar muy cercano ha desarrollado durante treinta años varios programas que usan los auditores de las empresas del estado y sabía dónde tocar cuando algo fallaba, porque no es algo vivo sino muy complejo que puede errar. Desde fuera, incluso otros programadores del equipo trataron de que no les cayera el muerto porque son mamotretos históricos muy complejos.
Todas estas cajas negras que tanto miedo dan estarán encriptadas hasta que llegue un Turing de diecisiete años y se cuele hasta la cocina. Coincido contigo, por supuesto, en que hoy no sabemos cómo procesa los datos introducidos, pero lo que digo es que el sesgo está en esos datos que introduce alguien con mala intención, no en el programa. Que se quiera conocer cómo funciona el programa, ya se sabe: introduces los datos y vuelca un listado de resultados, lo que hacen los programas desde que alguien escribió 00: GOTO 01 / 01: GOTO 00. La maldad está en el sujeto que maneja la caja misteriosa para que el negro o el latino permanezca en el sistema penitenciario más tiempo del que le corresponda, que introducirá lo que necesite el programa para dar un resultado chungo.
Para finalizar, por mi parte, a mí me preocupa sobremanera que quienes posean y alquilen el uso de la caja negra sean estados como Israel, a través de empresas privadas, para países como Marruecos, con la intención de desestabilizar otro país, como España, con el beneplácito de su aliado tradicional desde hace un siglo (de Israel y Marruecos), EE. UU..
Valentino Senna
por hace 2 semanas
Las dos caras en la IA. Se ve claro los que tienen intereses y los que no necesitan nada de ésto?
Yo tengo clara la opinión que me quedo, y es cierto lo que dice este señor (que lleva medio siglo con el tema), que lo que nos venden como IA es un autocompletar muy listo, lo que han dado en llamar un LLM, que regurgita en función de la BBDD que lo alimenta, y que no dejan de ser tablas vectoriales. Cuando ves ésto se acabó el misterio de Iker Jimenez, charlatanes y demás cazafantasmas. 
El problema es que está estancada como está, de ahí el miedo a la hostia de la burbuja. Llegará a desbloquearse, pero no va a ser mañana.

https://www.youtube.com/shorts/dlT1hlavHCg

https://www.youtube.com/shorts/xDsJ14mGRWw
Manuel
por hace 2 semanas
VI escribió:
Los modelos lingüísticos se han vuelto más eficaces y se han implementado más ampliamente, pero nuestra comprensión de su funcionamiento interno aún es muy limitada. Por ejemplo, podría ser difícil detectar a partir de sus resultados si utilizan heurísticas sesgadas o si cometen engaños.



Tal y como yo entiendo lo que ahí se dice, y además me cuadra con lo que veo por ahí que hace la tontencia artificiosa, se plantea que no está del todo claro si cuando la tontencia mete la gamba, lo hace: 
a) porque usa aproximaciones poco acertadas y atajos, con tal de llegar a una conclusión (es muy frustrante para algunos que Alexa les diga "no puedo ayudarte en eso", y el vendedor prefiere que el cacharrín dé una respuesta aproximada, aún a riesgo de cagarla, en vez de decir "mirusté, no sé bien")
ó b) porque pretende engañarnos.
No sé si lo añade el buen señor (tampoco me importa mucho, la verdad) que si lo hace engañándonos, sería porque está programada para ello, igual que Jessica Rabbit no era mala, sino que estaba dibujada así, o porque por "iniciativa propia" de la tontencia le da la vena y se plantea "voy a trolear a estos gpllas".
Sea como fuere, hace tiempo que llegué a la conclusión de que no es una fuente de información fiable, y por eso precisamente creo que cualquier información o afirmación que venga de "preguntar" a la tontencia, debe aclarar que se ha obtenido por ese método, igual que exijo a un estudio científico que muestre sus cartas y cuente detalladamente su metodología, eso sólo para empezar a creerme que es posible que se acierto algo de lo que dice.
En esta época en la que se intenta llamar pos-verdad a las mentiras y bulos flagrantes, si uno ya era descreído antes, pues muchísimo más ahora.

Al final tendrán razón los terrapanistas...

Justo me he metido en YT para buscar un tema musical que iba a colgar aquí, y el primer anuncio patrocinado es de una "Realistic AI girfriend", tócate los pies. Que no sé cómo va a ser de realista porque es evidente que no podrás hacer con ella algunas de las cosas que más te gusta hacer con tu novia... en fin...



Manuel
por hace 2 semanas
Perfecta reflexión Manuel, al menos desde mi punto de vista.
   Cuando leí hace poco tiempo esto; Klaus Schwab, fundador de Foro Económico Mundial: “Debemos abordar, individual y colectivamente, las cuestiones morales y éticas planteadas por la investigación de vanguardia en inteligencia artificial y biotecnología, lo que permitirá la extensión de nuevas formas de vida, como los bebés de diseño y la extracción de memoria", me quedé un poco desorientado y perplejo.

    No es que me asuste, a mis años sería algo absurdo, pero desde luego, me da repelús la gente que defiende este tipo de idioteces sin saber ni conocer lo que van a preparar en el futuro, aunque es cierto que por ahora de inteligencia tiene el nombre, y como tu dices, si le preguntan algo a la esfera mágica esa y lo duda, la depresión está garantizada.
   Hace no mucho, un chaval con un "smart" reloj, de esos que te miden las pulsaciones y te dicen que te faltan diez min. para ir a hacer pis, fue a urgencias de un hospital que lo miraran de urgencia que no le mostraba pulsación alguna.
  Así estamos, cada día mas atontados y lo peor, más contentos de estarlo.
N456M
por hace 2 semanas
Los LLM no son toda la IA; son un tipo específico. Y las cosas terribles son más prosaicas. Por ejemplo, el gasto en IA militar está disparado. El soporte del Pentágono en IA lo tienen Amazon y Microsoft junto con otras menos conocidas.

El análisis de datos militares lo desarrolla principalmente Palantir, una empresa superoscura nacida en su día con participación indirecta de capital por parte de la CIA, la única empresa de Silicon Valley a la que se la suda no ser “guay”.
Esos centros funcionan con la GPU de Nvidia, que, de manera directa con los otros dos, soporta la infraestructura. Y aquí faltaba el cuarto en cuestión, que no es ni más ni menos que Google con su compañía Broadcom. En todos los cacharros de emulación de guitarra y demás modernos es muy probable que haya uno o muchos componentes de Broadcom. Entre los dos han diseñado lo que se denomina una TPU. Es como hacer hiper eficiente a la GPU para estas cosas y hacer un dispositivo únicamente dirigido a ciertos tipos de red neuronal.

Esto explica por qué Trump está obsesionado con que no se le den chips de Nvidia a China, que está en lo mismo. El caso es que Google ha solucionado eso de manera muy fácil: se monta una granja y no vende las TPUs; si tú quieres utilizar una TPU, le tienes que pagar y las utilizas de manera indirecta a través de sus servicios online. Los otros ya han tomado nota y están desarrollando su propio hardware. Si os jode ya pagar por software, veréis cuando tengamos que pagar también por el mismo hardware. Ok, Google…

¡Ah! Y quedan, como no, los de siempre, los queridos amigos de Apple. Apple tiene que dar imagen “happy” y guay, pero este año pasó algo extraño: consiguieron la certificación NATO Restricted en dispositivos comerciales, y otras historias que disparan la rumorología.

Todas estas empresas tienen los centros para la IA que nos habla, mal informada (a la que, por cierto, se le pueden pedir las fuentes para verificar si se le va la olla o no), y los centros militares. Quedan Tesla y Meta, y ya las tenéis todas. Tesla controla Starlink y se posiciona, o no, de un lado u otro, como en Ucrania. Y queda Meta, que con leerte el WhatsApp y no decirlo… acordemos de Snowden y los santos de Microsoft.

Si alguno duda de la efectividad de la inteligencia artificial, solo hay que ver el daño que le ha llegado a Ucrania a Rusia, y la inversión que ha metido Rusia de vuelta para desarrollar enjambres de drones. Un enjambre de drones deja anticuado casi todo lo que conocíamos en una guerra. No se trata de cuatro aparatos que vuelan y hacen dibujitos en el aire por una programación normal; los enjambres militares son súper correosos: se pueden separar, intercambiar funciones entre los drones y decidir a qué objetivo atacan en el momento.

 Eso ha dejado obsoleta mucha tecnología militar convencional.

Ese es el mundo y esos son los “drivers” actuales. Se estima que Rusia debe estar destinando un 6-7% del PIB a la industria militar; algunos dicen que más. El de España dedicado a turismo es un 13%, como referencia, y el PIB nominal total de Rusia es 1,5 veces el español. Esto equivale a un 30% de su gasto público, sin sumar cuerpos policiales y demás. Estados Unidos dedica un 15% del presupuesto federal en guerra, seguridad, defensa y control, y casi un 3,4% de su economía, 15 veces mayor que la española.

En este momento, las instituciones internacionales cuentan poco, tampoco mada Wall Street. La cosa va por otro lado. Porque la triste realidad es que la pasta y todo el movimiento de inteligencia artificial tiene un lado más oscuro, y un subsuelo mucho más terrorífico de lo que parece, y son los que la hacen crecer.
Manuel
por hace 2 semanas
Microsoft tiene el 49% de las acciones de OpenAI.
Nuevo post

Regístrate o para poder postear en este hilo