Mis amigos son

domingo, 31 de diciembre de 2023

Esperando el Año Nuevo

Es 31 de diciembre, estaremos esperando que lleguen las para hacer el tradicional brindis. Algunos pasarán el tiempo bailando, contando chistes o historias familiares pero, otros estarán sin saber qué hacer esperando que llegue la hora.



Te dejo unas adivinanzas para pasar el tiempo y además, ejercitar la memoria.

A pensar!

1- Imaginá que manejás un colectivo en el que solo hay 10 pasajeros. En la primera parada se bajan 4 y se suben 8. En la segunda, bajan 6 y se suben 12. ¿De qué color son los ojos del conductor?

2- Soy un número de 3 cifras, la suma de estos 3 dígitos es 18. La primera cifra es la mitad de la segunda y un tercio de la tercera. ¿Qué número soy?

3- Nunca supe escribir bien, pero soy un gran escribano. Te puedo servir si me tomás en tu mano.

4- Tiene ojos y no ve, tiene agua y no la bebe, tiene carne y no la come, tiene barba y no es hombre. ¿Qué es?

5-¿Quién es el hijo de mi madre que no es mi hermano?

6-Me enfrento a situaciones extremas, pero no soy aventurero. Protejo a los demás, pero no soy policía. ¿Quién soy?

7-El que me compra no me necesita. El que me hace no me quiere. El que me usa no me aprecia. ¿Qué soy?

8-¿Por qué el número 542.986.731 es único?

9-Si me decís la verdad, te mataré con mi espada. Si me mentís, te mataré con mi hechizo. ¿Qué tenés que decir para sobrevivir?

10-En un depósito, hay un nivel de agua muy bajo, pero que se duplica todos los días. Tarda 60 días en llenarse. ¿Cuánto tarda en llegar a la mitad?

11-Llegando a la meta, adelantás en una carrera a la persona que va en el segundo lugar. ¿En qué puesto quedas?

12-Antes de ayer, Juan tenía 15 años. El año que viene, tendrá 18. ¿Qué día es hoy?

13-Un hombre se para en un lado del río y su perro al otro. El hombre lo llama y el perro cruza el río sin mojarse, y sin pasar por un puente o bote. ¿Cómo lo hizo?


1-Es el color de tus propios ojos, porque vos sos el colectivero.

2-369.

3-El lápiz.

4-El coco.

5-Yo.

6-El bombero.

7-Un ataúd.

8-Porque tiene todos los números del 1 al 9 ordenados alfabéticamente: cinco, cuatro, dos, nueve, ocho, seis, siete, tres y uno.

9-Me matarás con tu hechizo.

10-59 días.

11-En el segundo lugar.

12-Hoy es 1º de enero, porque ayer, 31 de diciembre, Juan cumplió 16 años. El 30 de diciembre, entonces, aún tenía 15. Este año cumplirá 17 y el siguiente alcanzará los 18.

13-El río estaba congelado.

 ¿Cuántas acertaste?

Para finalizar te deseo para el 2024 todo aquello que te haga feliz, salud y trabajo especialmente.

¡Buen año 2024 para todos los que pasan por aquí!



viernes, 8 de diciembre de 2023

¡Boludo!....¡Pelotudo!...


No lo tomes a mal! No!...no es para vos!...

Simplemente es que quiero explicarte de dónde salieron esos insultos

"Boludo" y "pelotudo" son dos palabras muy argentinas, que con el tiempo pasaron a ser de insultos a expresiones cancheras entre amigos. Lo que muchos desconocen es que el origen de ellas se remonta a la época de los gauchos y su etimología viene de "las bolas", los testículos del varón.

El diccionario define "boludo" como "que hace o dice tonterías, se comporta como un estúpido o no es responsable". Pero en Argentina el significado es mucho más que eso, ya que pasó a ser parte del lenguaje cotidiano de todas las personas.

¿Cómo nació la palabra "boludo"?

Durante las Guerras de la Independencia, en 1810 aproximadamente, los gauchos argentinos peleaban contra un ejército llamado "Primer Mundo", hombres que entrenaron en las mejores academias militares muy disciplinados y tenían las mejores herramientas para combatir: acero, aras de fuego, artillería y más elementos de primera calidad.

En cuanto a los gauchos argentinos, ellos solo contaban con bolas (boleadoras), pelotas, armas desactualizadas, piedras grandes con un surco por donde ataban un tiento y facones, que generalmente eran lanzas precarias hechas con una caña tacuara. Las peleas no era de par a par, el ejército Primer Mundo contaba con más artillería para vender a los gauchos, que se vestían con botas de potro con los dedos al aire.

Ya que las herramientas de los gauchos no eran óptimas, debían crear estrategias para ganar. Una de ellas era formar tres filas:

Pelotudos: era la primera final y contaba con los guachos que portaban las pelotas de piedras grandes amarradas con un tiento.

Lanceros: la segunda fila eran los gauchos que tenían facón tacuara.

Boludos: la tercera fila eran quienes portaban bolas o boleadoras.

Esta estrategia hacia que los gauchos pelear con una increíble valentía, ya que los esperaban firmes en el campo de batalla mientras el ejército se acercaba haciendo ellos para atacar. Los pelotudos esperaban a que lleguen a la primera fila para pegarle a los caballos, lo cual hacía que se cayeran al piso y los lanceros aprovechaban para atacarlos.

Transformación a mala palabra

Estas palabras quedaron en el vocabulario argentino. En 1890, un Diputado nacional dijo "no hay que ser pelotudo", haciendo alusión a que no había que ser "perejil" e hizo referencia a que no había que ir al frente y hacerse matar, tal como hacían los pelotudos en la época de las Guerras de la Independencia. Así fue como nació la mala palabra.

"Boludo" y "pelotudo" en la actualidad

Con el paso de los años, ambas palabras se fueron transformando. Desde inicios de los 2000, estas dos palabras comenzaron a formar parte del dialecto cotidiano de los jóvenes argentinos. Es común escucharlos decir "che boludo", una expresión cariñosa y típica entre ellos.

Ahora, cada vez que emplees alguno de estos dos términos seguramente recuerdes su raíz y lo pienses dos veces.

¿Si estuviera en tu país por cuál palabra los reemplazaría?



https://www.mdzol.com/sociedad/2021/4/12/inimaginable-conoce-el-origen-de-las-palabras-boludo-pelotudo-151611.html

viernes, 1 de diciembre de 2023

¿Te has preguntado cómo la Inteligencia artificial aprende el lenguaje?

 


Preentrenamiento

En esta etapa, el modelo aprende a predecir el siguiente palabra en una oración basándose en las palabras anteriores, utilizando una gran cantidad de texto de Internet. Este proceso no le proporciona un conocimiento específico de las fuentes de texto, sino que aprende patrones, estructuras y relaciones en los datos.


El preentrenamiento genera un modelo de lenguaje «base» que puede generar texto coherente y que entiende muchos aspectos gramaticales y semánticos del lenguaje, pero también puede generar contenido incoherente o incorrecto y no tiene ninguna información específica sobre el contexto de uso deseado.

Ajuste fino

En esta etapa, el modelo se entrena en un conjunto de datos más específico, construido manualmente con la ayuda de supervisores humanos. Estos supervisores siguen ciertas pautas y a veces interactúan con el modelo en un proceso de aprendizaje iterativo para mejorar sus respuestas.


El ajuste fino permite adaptar el modelo «base» preentrenado a tareas y contextos más específicos. Los supervisores humanos pueden dar feedback al modelo para que aprenda a dar respuestas más útiles y seguras.


En términos técnicos, tanto el preentrenamiento como el ajuste fino utilizan una versión de la optimización por gradiente estocástico para ajustar los pesos de la red. El preentrenamiento puede durar semanas o incluso meses en hardware muy potente, mientras que el ajuste fino suele ser un proceso más rápido.

Es importante tener en cuenta que a pesar de estos pasos de entrenamiento, el modelo no comprende el texto de la misma manera que un humano lo hace. Solo predice la siguiente palabra en función del contexto que se le ha proporcionado y de los patrones que ha aprendido durante su entrenamiento. Además, su conocimiento está limitado a lo que estaba en los datos de entrenamiento y no puede aprender nueva información después de ser entrenado.


¿Cómo usó el contenido de Internet para entrenarse?

Lógicamente, los ingenieros no copiaron manualmente todas las páginas de Internet. Ese proceso sería increíblemente laborioso y prácticamente imposible. En su lugar, usaron técnicas de web scraping y APIs para recolectar grandes cantidades de texto de Internet de manera automatizada.


El web scraping es una técnica que permite a los programas de computadora «leer» y extraer información de páginas web. Por su parte, una API (Application Programming Interface) permite a los programas interactuar con una aplicación o servicio específico y obtener datos de ellos de manera estructurada..

Una vez recolectados estos datos, se limpian y se procesan para eliminar cualquier contenido no deseado o irrelevante. A continuación, estos datos se tokenizan y se introducen en el modelo para su entrenamiento.


Es importante mencionar que este proceso se realiza con atención a las leyes y normativas de privacidad y protección de datos. Los datos personales, sensibles o protegidos no se utilizan para entrenar estos modelos. Por otro lado, el modelo resultante no tiene conocimiento de las fuentes específicas de sus datos de entrenamiento y no puede acceder a ninguna información específica de los datos utilizados para su entrenamiento después del hecho.


La tokenización

Los ingenieros de OpenAI utilizan un proceso llamado tokenización para dividir el contenido de Internet en partes más pequeñas que el modelo puede entender. Esta tokenización puede realizarse utilizando varias técnicas, dependiendo del modelo y las preferencias de los ingenieros.

La tokenización es el proceso de dividir el texto en unidades más pequeñas, llamadas tokens. Estos tokens pueden ser tan pequeños como un solo carácter o tan grandes como una palabra entera. Por ejemplo, la frase «Hola, ¿cómo estás?» podría tokenizarse en los siguientes tokens: [«Hola», «,», «¿», «cómo», «estás», «?»].


Cada token se asocia con un número único, que es lo que el modelo realmente «ve». Estos números se utilizan para buscar en una tabla de vectores (a menudo llamada tabla de incrustaciones de palabras o «embedding table») que se aprende durante el entrenamiento. Cada vector en esta tabla representa el significado aprendido de ese token en un espacio de alta dimensión.


El modelo toma estos vectores y los procesa a través de una serie de capas de red neuronal, aprendiendo a relacionar los tokens entre sí para predecir el siguiente token en la secuencia. Con el tiempo, el modelo se vuelve cada vez mejor en esta tarea de predicción, lo que equivale a decir que está aprendiendo el lenguaje.

Uno de los métodos más comunes de tokenización es dividir el texto en palabras, que luego se tratan como unidades individuales. Sin embargo, este método puede tener dificultades con las palabras que no están en su diccionario o con las lenguas que no separan las palabras con espacios.


Por esta razón, muchos modelos de lenguaje modernos, incluyendo GPT-3 y versiones posteriores, utilizan una forma de tokenización llamada Byte Pair Encoding (BPE) o alguna variante de la misma. BPE es un compromiso entre la tokenización por palabras y la tokenización por caracteres que permite al modelo manejar palabras desconocidas y lenguas diferentes de manera eficiente.


El algoritmo BPE comienza con un diccionario que contiene todos los caracteres individuales en el conjunto de datos de entrenamiento. Luego, iterativamente, el algoritmo busca la pareja de tokens más común y la combina en un solo token. Este proceso se repite muchas veces, construyendo un vocabulario de tokens cada vez más largo que puede representar palabras comunes, palabras raras y varios prefijos y sufijos comunes.


Estos tokens se convierten luego en números, que el modelo utiliza para buscar vectores en una tabla de incrustaciones. Estos vectores son lo que el modelo realmente procesa.


Otras formas de entrenamiento

En conclusión, mientras que el proceso de entrenamiento utilizado por ChatGPT – una combinación de preentrenamiento y ajuste fino – es impresionante y efectivo, es importante destacar que existen numerosas otras técnicas y métodos de entrenamiento en el amplio campo de la inteligencia artificial.


Por ejemplo, otros enfoques incluyen el aprendizaje supervisado, donde los modelos son entrenados en grandes conjuntos de datos etiquetados, y el aprendizaje no supervisado, donde los modelos aprenden a identificar patrones en los datos sin necesidad de etiquetas. También está el aprendizaje por refuerzo, en el que los agentes de IA son recompensados por realizar acciones que maximizan una cierta recompensa a lo largo del tiempo, una técnica que ha demostrado ser particularmente efectiva en tareas como el aprendizaje de juegos y la navegación de robots.


Además, los métodos de entrenamiento pueden variar dependiendo del tipo de modelo de IA que se esté utilizando. Las redes neuronales convolucionales, por ejemplo, son a menudo preferidas para tareas de visión por computadora debido a su capacidad para procesar información espacial, mientras que las redes neuronales recurrentes son a menudo útiles para el procesamiento del lenguaje natural debido a su capacidad para manejar secuencias de datos.


Como podemos ver, el entrenamiento de IA es un campo vasto y en constante evolución, lleno de una variedad de enfoques y técnicas. Mientras que el proceso de entrenamiento utilizado por ChatGPT ha demostrado ser tremendamente efectivo para la creación de un agente conversacional convincente y coherente, es solo una pieza del fascinante rompecabezas que es la inteligencia artificial. A medida que la tecnología continúa avanzando a un ritmo acelerado, podemos esperar ver aún más métodos de entrenamiento innovadores y eficaces en el futuro



Cómo se realizó el proceso de entrenamiento de ChatGPT – eju.tv

Gracias por pasar por mi espacio el cual está hecho pensando en vos

Gracias por pasar por mi espacio el cual está hecho pensando en vos