Hablando con máquinas

datacite.rightshttp://purl.org/coar/access_right/c_abf2
dc.contributor.authorYosa Reyes, Juvenal
dc.date.accessioned2025-10-16T14:43:40Z
dc.date.available2025-10-16T14:43:40Z
dc.date.issued2025
dc.description.abstract¿Listo para conversar con el futuro? Hablando con máquinas te sumerge en el universo de la inteligencia artificial (IA), la tecnología que está cambiando la forma en que trabajamos, aprendemos y vivimos. Con explicaciones claras y ejemplos prácticos, este libro derriba barreras y elimina la complejidad que rodea al tema, de modo que cualquier persona, sin importar su formación previa, pueda explorar cómo funcionan los modelos de IA más avanzados. Te enseñará a interactuar con asistentes como ChatGPT, Gemini y Claude, y a descubrir el fascinante arte de crear prompts efectivos, que te permitirán liberar todo el poder creativo y analítico de estos sistemas. Te invitará también a viajar por la historia de la IA, explicará cómo se entrenan los modelos fundacionales y revelará el intrigante fenómeno de las “alucinaciones” que a veces surgen en los LLM, para que puedas reconocerlas de inmediato. Profundizarás en las redes neuronales y los transformers mientras aprendes a perfeccionar tus prompts usando técnicas como el aprovechamiento del historial de conversación, lo que hará que tus preguntas sean aún más claras y potentes. Además, descubrirás cómo estos métodos pueden estimular tu creatividad en la escritura, el diseño o la resolución de problemas, y de qué manera la IA está moldeando el futuro de la sociedad. Hablando con máquinas te convertirá en un usuario seguro y creativo en el mundo de la IA, mostrándote cómo estas herramientas pueden potenciar tu productividad, despertar tu ingenio y transformar tu forma de aprender. Prepárate para un futuro en el que hablar con máquinas será parte de la vida cotidiana, y únete a la revolución digital con esta guía esencial que te muestra cómo sacarle el máximo provecho a la tecnología que lo está cambiando todo.spa
dc.format.mimetypepdf
dc.identifier.isbn9786287852099
dc.identifier.urihttps://hdl.handle.net/20.500.12442/17031
dc.language.isospa
dc.publisherEdiciones Universidad Simón Bolívarspa
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internationaleng
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.titleHablando con máquinasspa
dc.type.driverinfo:eu-repo/semantics/book
dc.type.spaLibro
dcterms.referencesMcCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955, 31 de agosto). A proposal for the Dartmouth Summer Research Project on Artificial Intelligence [Manuscrito no publicado]. Dartmouth College. http://www-formal.stanford.edu/jmc/ history/dartmouth/dartmouth.htmleng
dcterms.referencesTuring, A. M. (1936). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, Series 2, 42(1), 230–265. https://doi. org/10.1112/plms/s2-42.1.230eng
dcterms.referencesSamuel, A. L. (1959). Some studies in machine learning using the game of checkers. IBM Journal of Research and Development, 3(3), 210–229. https://doi.org/10.1147/rd.33.0210eng
dcterms.referencesNewell, A., Shaw, J. C., & Simon, H. A. (1956). The Logic Theory Machine: A complex information processing system. IRE Transactions on Information Theory, 2(3), 61-79.eng
dcterms.referencesRosenblatt, F. (1957). The perceptron: A perceiving and recognizing automaton (Tech. Rep. No. 85-460-1). Project PARA, Cornell Aeronautical Laboratory.eng
dcterms.referencesNewell, A., Shaw, J. C., & Simon, H. A. (1959). Report on a general problem-solving program. En Proceedings of the International Conference on Information Processing (pp. 256-264). UNESCO.eng
dcterms.referencesWeizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45. https://doi. org/10.1145/365153.365168eng
dcterms.referencesNational Research Council. (1966). Language and Machines: Computers in Translation and Linguistics (Report of the Automatic Language Processing Advisory Committee). National Academies Press. https://doi.org/10.17226/9547eng
dcterms.referencesMinsky, M., & Papert, S. A. (1969). Perceptrons: An Introduction to Computational Geometry. The MIT Press.eng
dcterms.referencesRumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533-536. https://doi.org/10.1038/323533a0eng
dcterms.referencesCortes, C., & Vapnik, V. (1995). Support-vector networks. Machine Learning, 20(3), 273-297. https://doi.org/10.1007/BF00994018eng
dcterms.referencesVaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems (Vol. 30).eng
dcterms.referencesHerculano-Houzel, S. (2009). The human brain in numbers: A linearly scaled-up primate brain. Frontiers in Human Neuroscience, 3, Article 31. https://doi.org/10.3389/neuro.09.031.2009eng
dcterms.referencesRaichle, M. E., & Gusnard, D. A. (2002). Appraising the brain’s energy budget. Proceedings of the National Academy of Sciences of the United States of America, 99(16), 10237-10239. https://doi. org/10.1073/pnas.172399499 de Vries, A. (2023). The growing energy footprint of artificial intelligence. Joule, 7(10), 2191–2194. https://doi.org/10.1016/j.joule.2023.09.004eng
dcterms.referencesSchneider, J., Meske, C. & Kuss, P. (2024). Foundation Models: A New Paradigm for Artificial Intelligence. Business & Information Systems Engineering, 66, 221-231. https://doi.org/10.1007/ s12599-024-00851-0eng
dcterms.referencesOpenAI. (2023). GPT-4 Technical Report (arXiv:2303.08774) [Preprint]. arXiv. https://doi.org/10.48550/arXiv.2303.08774eng
dcterms.referencesRadford, A., Kim, J. W., Hallacy, C., Ramesh, A., Goh, G., Agarwal, S., Sastry, G., Askell, A., Mishkin, P., Clark, J., Krueger, G., & Sutskever, I. (2021). Learning transferable visual models from natural language supervision [Preprint]. arXiv. https://doi.org/10.48550/ arXiv.2103.00020eng
dcterms.referencesRamesh, A., Pavlov, M., Goh, G., Gray, S., Voss, C., Radford, A., Chen, M., & Sutskever, I. (2021). Zero-shot text-to-image generation [Preprint]. arXiv. https://doi.org/10.48550/arXiv.2102.12092eng
dcterms.referencesOpenAI (s. f.). Whisper: Robust Speech Recognition via Large- Scale Weak Supervision. GitHub. https://github.com/openai/ whispereng
dcterms.referencesYang, Z., Wei, T., Liang, Y. et al. A foundation model for generalizable cancer diagnosis and survival prediction from histopathological images. Nat Commun 16, 2366 (2025). https://doi. org/10.1038/s41467-025-57587-yeng
dcterms.referencesAlSaad, R., Abd-alrazaq, A., Boughorbel, S., Ahmed, A., Renault, M.-A., Damseh, R., & Sheikh, J. (2024). Multimodal Large Language Models in Health Care. Journal of Medical Internet Research, 26, e59505. https://doi.org/10.2196/59505eng
dcterms.referencesNaveed, H., Khan, A. U., Qiu, S., Saqib, M., Anwar, S., Usman, M., Akhtar, N., Barnes, N., & Mian, A. (2023). A comprehensive overview of large language models. arXiv preprint arXiv:2307.06435. https://arxiv.org/abs/2307.06435eng
dcterms.referencesDsouza, A., Glaze, C., Shin, C., & Sala, F. (2024). Evaluating language model context windows: A “working memory” test and inference-time correction. arXiv preprint arXiv:2407.03651. https:// arxiv.org/abs/2407.03651eng
dcterms.referencesKaufmann, T., Weng, P., Bengs, V., & Hüllermeier, E. (2023). A survey of reinforcement learning from human feedback. arXiv preprint arXiv:2312.14925. https://arxiv.org/abs/2312.14925eng
dcterms.referencesSahoo, P., Singh, A. K., Saha, S., Jain, V., Mondal, S., & Chadha, A. (2024). A systematic survey of prompt engineering in large language models: Techniques and applications. arXiv. https:// arxiv.org/abs/2402.07927eng
dcterms.referencesOpenAI (2023). Introducing GPTs. https://openai.com/index/ introducing-gpts/eng
dcterms.referencesOpenAI (2025). Introducing OpenAI o3 and o4-mini. https:// openai.com/index/introducing-o3-and-o4-mini/eng
dcterms.referencesGuo, D. Et Al. (2025). DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. arXiv. https://arxiv.org/abs/2501.12948.eng
dcterms.referencesGupta, S., Ranjan, R., & Singh, S. N. (2024). A comprehensive survey of retrieval-augmented generation (RAG): Evolution, current landscape and future directions. arXiv. https://arxiv. org/abs/2410.12837eng
dcterms.referencesGoogle Labs (2023). NotebookLM. https://notebooklm.googleeng
oaire.versioninfo:eu-repo/semantics/acceptedVersion

Archivos

Bloque de licencias
Mostrando 1 - 1 de 1
No hay miniatura disponible
Nombre:
license.txt
Tamaño:
2.93 KB
Formato:
Item-specific license agreed upon to submission
Descripción:

Colecciones